AI替身带货引争议:声音侵权谁来界定?

AI替身带货引争议:声音侵权谁来界定? ——虚拟主播崛起,法律边界何在?

AI侵权 声音带货 法治 社会观察 法官说法

深度观察网2025年09月19日 22:16消息,法官解读:使用AI合成他人声音带货可能构成侵权,涉及法律与道德边界。

   随着生成式人工智能技术的快速发展,名人声音和肖像被“克隆”并用于不当用途的情况日益增多,真假难分,消费者容易受到误导。近日,北京互联网法院公布的一起案例显示,被告在未获得权利人授权的情况下,利用AI合成的名人声音进行带货,法院最终认定其行为构成侵权。

   AI合成声音或换脸行为的边界在哪里?可能涉及哪些法律责任?对此,记者专访了北京互联网法院综合审判三庭(少年法庭)庭长颜君,对其进行了详细解答。 随着人工智能技术的快速发展,AI合成声音和换脸技术逐渐进入公众视野,但其应用也引发了诸多法律与伦理上的争议。这类技术若被滥用,可能侵犯他人隐私、损害个人名誉,甚至用于诈骗、诽谤等违法行为。因此,明确其使用边界和法律责任显得尤为重要。 在实际操作中,如何界定合法与非法的使用范围,是当前司法实践中亟需解决的问题。颜君庭长指出,相关行为必须遵循法律法规,尊重个人权利,避免对社会造成不良影响。未来,随着技术的不断进步,法律也需要持续完善,以更好地应对新兴技术带来的挑战。

   使用AI合成名人声音带货 法院认定被告构成侵权

   原告李某某在教育和育儿领域具有较高的知名度和社会影响力。2024年,原告发现被告某文化传媒有限公司在其运营的网络平台店铺中,使用了原告的公开演讲和授课视频,并结合与其声音高度相似的AI合成声音,对多本家庭教育类图书进行宣传推广。原告认为,被告未经允许使用其肖像及通过AI技术合成的声音制作宣传内容,侵犯了其肖像权和声音权。被告作为图书销售方,与视频发布者(某带货主播)存在委托关系,共同完成销售行为,因此被告应对涉案视频的发布承担审查责任,并应承担相应的侵权后果,包括赔礼道歉和赔偿损失。 从社会角度来看,随着AI技术的不断发展,利用人工智能生成虚拟人物形象或声音进行商业推广的现象日益增多。这种技术的应用虽然为营销提供了新思路,但也带来了法律和伦理上的挑战。在未获得当事人明确授权的情况下,擅自使用他人形象和声音进行商业活动,不仅可能构成侵权,也可能对个人的名誉和权益造成损害。因此,相关企业和个人在使用AI技术时,应更加注重合法合规,尊重他人的权利,避免因技术滥用而引发法律纠纷。

   法院认为,涉案视频中使用了原告李某某的肖像以及通过AI技术合成的声音,该声音在音色、语调和发音风格上与李某某本人的声音高度相似。结合李某某在教育和育儿领域的公众影响力,涉案视频对家庭教育类书籍进行了宣传推广,更容易让观看视频的公众将视频内容与李某某本人产生关联,因此可以认定一定范围内的听众能够将该AI合成声音与李某某本人建立起一一对应的联系。由此可判定,涉案声音属于李某某声音权益的保护范畴。由于涉案视频大量使用了李某某的肖像,并采用了未经许可的合成声音,其发布行为构成了对李某某肖像权和声音权益的侵犯。

   法院认为,被告某文化传媒有限公司与视频发布者(某带货主播)依照平台规则和服务相关约定达成委托推广关系,共同为了推介被告书籍的目的发布涉案视频、获取相应收益,且被告基于平台规则和管理权限,具备对涉案视频进行审核管理的能力。在涉案视频大幅使用原告肖像、合成模拟原告声音的情况下,被告应对视频可能引发的侵权风险具有一定的预见性,并就视频是否获得了原告授权尽到合理的审查义务,但在案证据表明被告未尽到其应有审查注意义务,故被告某文化传媒有限公司应与视频发布者就侵权视频发布承担连带责任。

   法院判决,被告某文化传媒有限公司被判决向原告李某某赔礼道歉,并赔偿经济损失及维权合理支出,其余诉讼请求被驳回。宣判后,双方均未提出上诉,目前该判决已生效。 从案件结果来看,法院在维护当事人合法权益的同时,也体现了对侵权行为的明确态度。此次判决不仅为受害者提供了法律上的救济,也在一定程度上起到了警示作用,提醒相关企业应更加注重内容合规与尊重他人权利。此外,双方未上诉,说明判决结果具有较强的说服力和公正性,有助于增强公众对司法公正的信任。

   如何判断AI合成声音等行为是否构成侵权?

   《中华人民共和国民法典》第1019条规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。第1023条第2款规定,对自然人声音的保护,参照适用肖像权保护的有关规定。

   颜君介绍,未经本人同意,利用人工智能技术进行换脸或合成他人声音,属于通过信息技术手段伪造等行为,可能侵害他人的肖像权或声音权。若未获得肖像权人的许可,擅自制作、使用或公开相关肖像或声音,也可能构成侵权行为。

   “判断是否构成侵权的核心在于,利用AI技术合成的自然人肖像和声音,只要能够使一般社会公众或相关领域公众根据其五官、轮廓等外部形象或音色、语调、发音风格等声音特征识别出特定自然人,即应纳入该自然人人身权益的保护范围。”颜君表示,例如商家“克隆”名人肖像、声音带货,让消费者误以为是名人推荐商品,这就侵犯了名人的声音权和肖像权;再如,有人通过“恶搞换脸”,把其他人的面部换到一些不雅视频或图片中并在网络上传播,这不仅侵犯了肖像权,还严重贬损了他人的名誉。

   AI合成声音等行为可能涉及哪些法律责任?

   当前,使用AI合成声音或换脸技术制作虚假信息、恶搞等行为在网络上屡见不鲜。颜君表示,前述行为可能涉及的法律责任主要包括三个层面:

   一是民事责任。根据《中华人民共和国民法典》的规定,权益受到损害的民事主体可以向法院提起民事诉讼,要求侵权人停止侵害、赔礼道歉、消除影响,并赔偿经济损失和精神损失。需要强调的是,并非只有视频的制作者、发布者才要担责,就视频发布的委托方而言,如果未尽到合理的审核义务,也需要承担连带责任,这意味着委托推广带货的商家等不能以“不知情”为借口来推卸责任。

   二是行政责任。如果利用AI技术故意散布谣言、谎报险情等扰乱公共秩序的,公安机关可依据《中华人民共和国治安管理处罚法》等规定,对行为人处以行政拘留、罚款等行政处罚。

   三是刑事责任。例如利用AI换脸、AI合成声音制作淫秽物品并进行传播牟利,可能构成传播淫秽物品牟利罪;若用于对他人实施诽谤或侮辱行为,情节严重的,可能构成诽谤罪、侮辱罪;而通过合成肖像或声音伪造场景实施诈骗的,也可能构成诈骗罪,从而需要承担相应的刑事责任。 在当前技术快速发展的背景下,人工智能的应用为社会带来了便利,但也伴随着新的法律风险。对于利用AI技术实施违法犯罪的行为,必须依法予以严惩,以维护社会秩序和公民权益。同时,也应加强对AI技术的监管与引导,推动其在合法合规的轨道上健康发展。

   规范AI技术的应用,需要多方协同治理。颜君建议,提供信息内容传播服务的网络平台应依据相关法律,加强对人工智能生成合成内容的审查。对于属于或可能属于人工智能生成合成的内容,应在发布时添加显著的提示标识,明确告知公众该内容为生成合成内容,防止公众误判,并应建立健全辟谣机制和投诉处理机制,及时应对利用深度合成技术制作、复制、发布、传播的虚假信息。未来,针对AI合成声音侵权等新型侵权行为,还需进一步明确平台在内容审核、数据使用、算法推荐等方面的法律责任。 在当前AI技术快速发展的背景下,平台责任的界定显得尤为重要。仅靠技术本身无法解决所有问题,必须通过制度设计和法律约束,确保技术应用的透明与可控。同时,公众也需要提高对AI生成内容的辨识能力,形成全社会共同参与的治理格局。

   “此外,相关技术使用者和信息发布者也应严格遵守法律法规和社会公德,避免利用AI技术侵犯他人合法权益,共同促进人工智能与深度合成技术的健康发展,营造积极健康的网络环境。颜君表示。 在当前技术快速发展的背景下,确保AI应用的合规性与社会责任感显得尤为重要。技术本身是中性的,但其使用方式却直接影响社会秩序与个体权益。只有各方共同努力,才能真正实现技术向善的目标,推动形成更加透明、公正的网络生态。

相关阅读

女性就业歧视遇公益诉讼破局
女性就业歧视遇公益诉讼破局

2026-01-04 14:56 | 阅读 275

扫黑除恶常态化,这些案例彰显法治力量
养老院突发爆炸致2死多失踪,现场惊魂未定
法治之光,照亮人心
法治之光,照亮人心

2025-12-05 14:14 | 阅读 225

发表评论

请输入您的姓名
请输入有效的邮箱地址
请填写评论内容

社会观察栏目

深度观察网社会观察栏目为您提供第一时间的新闻报道、深度分析和独家视角。

即时资讯

全天候更新热点事件,第一时间传递重要新闻

深度分析

专业团队解读事件背景与深层影响

24小时热文

友情链接

与优秀科技平台合作,共同构建创新数字生态

合作伙伴持续增加中,期待与更多优秀平台建立联系