近日,演员王劲松在社交平台发文称,其肖像和声音被AI技术盗用生成视频内容。该视频在画面、口型及声音上高度逼真,甚至让其家人难以分辨真假。相关视频随后在平台被举报下架,但事件本身引发了社会对于“AI深度伪造”法律风险的广泛讨论。
这一事件表面上是一次技术滥用案例,实质却直指一个重要问题:当AI可以“复制”一个真实存在的人时,法律应如何界定其边界?AI生成内容是否构成侵权?责任又应由谁承担?
当前广泛应用的深度伪造技术(Deepfake),是通过对大量图片、视频和声音素材进行机器学习训练,从而生成与原人物高度相似的影像和语音内容。
与早期粗糙的换脸视频不同,如今的AI生成内容在表情、语音、语调、口型同步方面都达到了较高水准,普通公众几乎难以辨别真假。
当这些技术被用于娱乐、影视制作或经本人授权的商业用途时,属于合法技术应用;但一旦未经当事人许可生成并传播,便触及人格权保护的法律红线。
从现行法律体系看,判断是否构成侵权,核心并不在于“是否由AI生成”,而在于是否未经许可使用了他人的人格标识。
《民法典》明确规定,自然人享有肖像权,未经本人同意,不得制作、使用、公开他人肖像。所谓肖像,不仅包括照片和视频,也包括能够识别特定自然人的面部特征形象。
在本案中,AI视频使用的是王劲松的面部特征、声音特征,并足以使公众误认为是其本人,这已经具备肖像权侵权的基本构成要件:
•使用了可识别个人身份的形象特征
•未取得当事人授权
•对外传播并可能造成混淆和误导
因此,即便视频并非直接“拍摄”本人,而是通过算法生成,也不影响其构成侵权的法律性质。
除肖像权外,本案还涉及一个重要问题:声音是否属于受法律保护的人格权益?
从司法实践与学界观点看,声音作为具有唯一性和可识别性的生物特征,已经被纳入人格权保护范围。AI对特定人物声音进行克隆,并配合影像传播,本质上是对当事人人格标识的再利用。
如果未经许可擅自使用其声音生成视频内容,不仅侵犯其人格权益,也可能因误导公众而进一步引发名誉权纠纷。
尤其对公众人物而言,其形象和声音本身具有商业价值,一旦被滥用,还可能构成不正当竞争或商业利用侵权。
若AI生成视频仅用于娱乐模仿或个人传播,通常停留在民事侵权层面。但当其被用于牟利或违法目的时,法律风险将明显升级。
例如:
•利用伪造视频实施诈骗
•以明星名义发布虚假广告
•散布虚假言论损害社会评价
在上述情形下,行为人可能涉嫌诈骗罪、侵犯公民个人信息罪或非法经营罪等刑事责任。
因此,AI深度伪造并非只是技术问题,而可能成为新型违法犯罪工具。
在AI生成内容的侵权案件中,责任主体往往并非单一主体,而可能涉及三个层面:
内容生成者(直接使用AI制作视频的人)
发布与传播平台
提供AI模型或工具的技术公司
一般而言,直接生成并发布侵权内容的个人或机构应承担主要责任。
平台在接到权利人投诉后,如未及时删除或采取必要措施,也可能构成帮助侵权,需要承担相应的连带责任
而技术提供方是否承担责任,则需结合其是否明知、是否提供明显可用于侵权的工具、是否履行风险提示义务等因素综合判断。
面对AI侵权,权利人可采取多层次应对措施:
首先,应及时固定证据,包括视频截图、下载文件、传播链接等,以防内容被删除后难以取证。
其次,可通过平台投诉机制要求下架侵权内容,并向侵权方发送律师函或者通过民事诉讼方式,要求停止侵害、赔礼道歉并赔偿损失。
如侵权行为造成严重后果,或具有诈骗等违法情形,还可以向公安机关报案,通过刑事途径维权。
当前AI生成内容的监管仍面临诸多现实问题:
•技术更新速度快于立法进程
•侵权内容取证难、溯源难
•平台审核能力有限
•普通公众缺乏识别能力
因此,单纯依靠个人维权并不足够,还需要平台承担更积极的内容管理义务,包括:
•明确标注AI生成内容
•建立人物肖像保护机制
•对高风险内容进行技术识别
•完善投诉与应急处理通道
这既是法律责任,也是平台社会责任的一部分。
王劲松事件所反映的,并非个案,而是AI时代普遍可能发生的风险场景。技术的发展不应以牺牲人格尊严和社会信任为代价。
法律的核心并不是限制技术,而是为技术划定边界。无论内容是否由AI生成,只要涉及真实自然人的人格权益,就必须遵守现有法律秩序。
未来,随着更多类似案件进入司法实践,AI侵权的法律规则将逐步清晰。对于公众人物、内容创作者以及普通用户而言,理解这些边界,不仅是法律意识的问题,更是对技术社会责任的基本认知。
-全文完-