来源:环球时报

“太可怕了,声音、口型完全看不出来真假。”演员王劲松近日在微博上的控诉,再次将“AI换脸”滥用乱象推向公众视野。起因是他发现自己的影视原始片段被恶意截取后,借助AI深度伪造技术合成了肖像、声音与口型,使其成为虚假理财广告的“代言人”。这起事件并非孤例,此前李连杰、姚明等名人也曾被卷入类似的虚假营销之中。在AI换脸假人“制作易”“监管难”的背景下,频发的侵权乃至犯罪事件折射出技术迭代与监管治理之间的紧迫张力。

回看AI换脸的技术演进脉络,早在其快速发展之际,就已埋下了滥用的隐患。2014年,生成对抗网络(GAN)的提出奠定了图像生成与篡改的技术基础;2017年,Deepfake因炮制名人不雅视频而进入公众视野,尽管当时效果粗糙、“一眼假”,却开启了该技术普及之门。2018年后,FakeApp等开源工具进一步降低使用门槛,而英伟达等企业对生成技术的优化则极大提升了伪造内容的逼真度。进入2022年,大模型技术与开源生态的爆发使换脸技术实现质的飞跃:仅需一张照片和几秒语音,即可生成肉眼难以辨识的“声形合一”的虚假视频。虽然技术的开发往往出于“中立”,但AI与生俱来的工具属性和开源带来的私人性,从一开始就很难避免其被滥用的风险。也正是由此,AI换脸在影视制作、虚拟主播等正面用途中得到广泛应用的同时,也在快速沦为诈骗、仿冒营销的工具,其技术双面性愈发突出。

当前,AI生成与检测技术的对抗正陷入“螺旋升级”。一方面,AI“魔改”视频的制作门槛持续降低,电商平台上“1分钟无痕对口型”的服务报价仅数百元,已形成成熟的灰色产业链。另一方面,检测技术虽在迭代,仍存在显著短板。研究显示,在复杂场景下,现有AI检测器的准确率可能从90%骤降至60%,不法分子还可通过本地运行开源模型、修改原始素材等方式规避平台审查。当当事人的家人都无法分辨造假视频真伪时,技术滥用对社会信任的侵蚀已触目惊心。

平台治理亦陷入“防不胜防”的困境,暴露出行业协同机制的缺失。尽管部分头部平台已建立名人肖像保护库,累计处置数万条侵权内容,但治理难度依然巨大。其核心症结在于技术滥用的隐蔽性与跨平台传播能力——侵权视频可在多个平台间交叉扩散,但AI生成内容缺乏统一的识别标准,同时小型造假工具与开源模型则游离于监管体系之外。在此背景下,单个平台的“单打独斗”难以奏效。只有打通行业壁垒,推动检测技术与侵权特征库的共建共享,建立跨平台的协同治理机制,将先进经验转化为行业通用标准,方能在技术攻防中占据主动,从生态层面压缩滥用空间。

另一边,强化追责应成为遏制乱象的关键突破口。此次事件中,涉事CRC、RWA等项目早已被多地监管部门警示涉嫌非法集资,却仍借助AI换脸技术持续招摇撞骗。事实上,伪造代言广告等侵权行为本身往往只是冰山一角,这类“见不得光”的纠纷背后可能隐藏着非法集资、诈骗等更为严重的违法犯罪活动。类似事件不仅是有关部门进行“侵权追责”的线索,更是深挖源头犯罪的良机。应建立跨部门间协同机制,将AI仿冒营销视为深挖犯罪链条的重要线索,顺藤摸瓜,从虚假广告追溯到项目方资质,从侵权行为倒查资金流向,对造假者、推广平台及背后涉嫌非法集资等犯罪的项目方实施全链条打击。通过将民事侵权追责与刑事犯罪侦查相结合,不仅可以对类似行为形成有效震慑,或许还能有大案要案的“意外收获”。

所谓“技术无善恶”,不代表其发展就能逾越制度的边界,就可以践踏他人的权益。王劲松“被AI”事件再次提醒我们,技术创新必须与风险防控同频共振。既要加速AI检测技术的研发应用,推动行业协同治理形成合力,更要健全法律追责体系。唯有技术防御和法治惩戒双轮驱动,汇聚社会多主体共治合力,才能让AI技术回归服务社会的本质,既释放创新活力,又守护人格权益与社会信任的底线。(作者单位:北京语言大学国际政治与传播学院)