AI换脸换声乱象频发,名人频遭侵权,如何守护个人信息安全?

   时间:2025-02-17 13:48 来源:天脉网作者:朱天宇

近年来,人工智能(AI)深度合成技术在音视频领域的应用引发了广泛关注和争议。从对企业家雷军的恶搞,到利用AI技术制作张文宏医生的音视频进行商品推广,甚至有不法分子通过深度合成视频进行诈骗活动,AI深度合成技术的滥用现象愈演愈烈。

此前,有网友利用AI技术模仿刘德华的声音,以此吸引流量。这一行为迫使刘德华的电影公司紧急发布声明,警告公众不要上当受骗,避免陷入伪造刘德华声音的AI语音合成技术骗局。近期,记者调查发现,实现AI深度合成音视频的技术门槛并不高,甚至在一些购物平台上,AI深度合成技术已成为网店盈利的工具,消费者只需支付几十元,即可定制名人AI深度合成的音视频。

那么,这些高度逼真的AI深度合成声音和换脸是如何制作的呢?记者调查发现,相关的深度合成软件在网络上并不难获取,甚至一些网络主播还在直播中教授网友如何使用这些软件。虽然手机应用商城中有众多换脸换声工具,但大多数逼真度不高,且设定了固定场景。那么,网店是如何制作出高度逼真的AI深度合成音视频的呢?

据中国网络空间安全协会人工智能安全治理专业委员会专家薛智慧介绍,目前有许多开源软件和工具可以实现换声和换脸效果,公众可以自由下载并在自己的电脑上安装使用。虽然这些软件多达数十种,但由于涉及多个步骤和参数调整,属于半专业软件,具有一定的技术门槛,因此不为大众所熟知。然而,记者发现短视频平台上已有众多主播在教授如何使用这些软件。

针对在网络购物平台上使用AI深度合成技术制作并出售名人音视频的行为,专家指出,这违反了相关法律法规。未经授权,不得深度合成制作发布他人信息,网店接单制作名人视频的行为已构成侵权,并应承担相应的法律责任。

北京航空航天大学法学院副教授赵精武指出,国内已经审结了首例AI生成声音人格权侵权案。在此案中,一名配音演员的声音未经授权被AI生成并出售,法院最终认定被告的行为构成侵权。这一案例表明,自然人的声音被视为一种具有人身专属性的人格权益。

专家提醒,不仅是名人,普通人甚至动画形象,如果未经本人或版权方同意,使用AI合成制作其音视频,同样构成侵权行为,应承担法律责任。那么,面对AI深度合成音视频侵权的普及,我们应如何防范呢?

薛智慧专家表示,从技术角度来看,可以利用AI技术对抗和检测AI。当前已有一些典型的AI技术能够对图片或音视频进行检测,判断其是否经过后期加工和合成。中国计算机学会计算机安全专业委员会委员吕延辉则建议,防范AI侵权问题需要从法律、平台和公众等多个层面综合施策。法律层面应完善相关立法,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,并加强执法力度。平台层面应强化政策法规的宣贯和执行,保护已有数据,应用技术手段规避AI克隆侵权问题的发生,同时建立健全内容审核和侵权举报机制。

赵精武副教授强调,法律并不禁止使用AI合成技术,而是禁止不合法、不合理的使用,特别是禁止未经显著标识和提示的AI合成信息的发布和传播。他提醒AI深度合成制作和信息发布者,不要心存侥幸,法律没有灰色地带,切勿因小失大。

 
反对 0举报 0 收藏 0
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  网站留言  |  RSS订阅  |  违规举报