配音演员等集体发声反对人工智能侵权;律师称平台因审核困难不能免责 – 新京报

3月13日,国内知名配音公司729声厂旗下多名配音演员发表声明,针对人工智能技术侵权行为进行维权。他们表示,他们有证据证明所发生的事情,并且正在对持续违规者采取法律和执法行动,追究他们的违规责任。敦促各方停止侵权,限制和审查人工智能作品的出版发行,依法尊重配音演员的权利和合法利益。声明样本。 729声音工厂代表在接受新京报专访时表示,这次集体发声的机会,源于AI音频滥用现象的持续盛行且难以遏制。 “第一起事件发生在去年初,是一些平台上宣传AI漫画的视频,据报道,其名称为‘分享’或‘学习’,但如果你点击它会提示您稍后付款。当时还没有《生成人工智能服务管理暂行办法》。侵犯个人权利只能向平台投诉。一些平台承认“版权”。相比于“通过改变演员的脸部”等违规行为,公众往往可以直观地识别出面部相似之处,许多视频收到了“无法判断这是违规行为”的回应。音频的无形性、非视觉性使得其受到侵权时更难以察觉,维权面临更大挑战。此前,有媒体文章报道称,声音被AI“窃取”的配音演员的权利很难得到保护。裁判文书网查明,在声优人工智能侵权相关法律判例中,“原告应某某与被告安智能科技人身权纠纷案”北京互联网法院2023年审理的“科技公司”案就是一个典型案例,作为国内首例人工智能生成语音精神权侵权诉讼,法院不仅责令删除相关侵权内容,还责令其删除,被告向原告道歉并赔偿其经济损失25万元。虽然最终维权成功,但在此过程中投入的时间和精力成本仍难以估量。 729声音工厂向新京报记者询问了各种时事,他透露,玛娜平台上的AI漫画更新速度极快,每天制作数千集,分布在数百个账号上,侵权内容数量庞大,通过人工搜索和投诉很难完全覆盖,而且涉及AI漫画的制作、发行和推广的平台也较多。投诉机制尚不健全,尚未建立专门的音频侵权切入点和维权渠道。 “在大多数情况下,我们会通过公司的官方法律信件提出投诉,并让他们下架。”听证组织的支持在维权过程中也发挥着重要作用。 “我们非常感谢有很多关注和配合我们的观众朋友,他们关注声优的合法权益,并试图站出来为自己代言或发消息,对违法者进行私人损害。通过我们的声明,我们希望给这些听众积极的反馈,避免他们在正确发言的情况下被贴上“不公平”的标签。”影响。其权利在保护实践中,729音响厂逐渐意识到,问题不仅仍然在于侵权内容案件的处理,还在于行业尚未制定明确的授权规则。他表示,目前该领域还没有标准化的合同条款可以让配音演员充分感受到对其认可的尊重。 “其中大部分都是‘授权在全球范围内、任何领域、任何软件、任何受去版权保护的作品中使用声音’、‘授权后不干涉任何使用’、‘许可期限超出常理’之类的条款。”这也意味着,如果未来能够形成正式、合法、清晰、合理的合作模式,我们愿意继续与用户对话,共同探索推进AI技术应用的途径。汇聚行业领先企业配音演员的声音,可以成为推动当前形势变革的重要节点。在这个c那么,该声明本身具有怎样的法律效力呢?如果AI侵犯音频,平台应承担哪些法律责任?是否也会影响个人衍生作品?针对上述问题,新京报记者采访了上海立震律师事务所主任、律师李振武先生,请他从法律角度解读配音演员的维权问题。 【对话】新京报:今天,729声厂多名配音演员当天发布了这一声明。从法律专家的角度来看,这种说法的本质是什么?李振武:从法律角度看,这份由众多配音演员联合发表的声明,是一封针对不特定人群的公开“维权警示信”。其主要功能是公开声明自己对音频拥有合法权利,并提前通知公众,特别是人工智能技术的开发者、平台和用户,某些使用音频的行为未经权利人许可禁止。这为后续可能采取的法律行动(例如提交侵权通知或提起诉讼)奠定了事实和证据基础。新京报:声明中具体强调了各种形式的侵权行为,包括但不限于人工智能工具和产品,包括采集、生成、嵌入样本、许可他人等,本次上市有哪些特殊的法律考虑?李振武:我认为这个说法是准确的。首先,明确将最明显、最紧迫的侵权形式(如人工智能克隆、语音合成)纳入禁令范围,防止侵权方以声明中未明确提及为由进行辩护。第二个是“收集、生成、合并样本、授权他人等”的表达方式。其目标是涵盖所有现有和未来的使用形式。这不仅禁止了最终的“生成不仅是前端的“获取”行为(比如调取训练数据),并从源头进行控制。我认为这符合民法一般保护精神权利的原则,也符合《人工智能生成服务管理暂行办法》的相关规定,要求获得数据用于训练目的的许可。新京报:声明第一条和第二条分别指向“声音采集”和“人工智能语音生成”的主题。国内第一起基于人工智能的声音著作权侵权案(尹茂茂案),该案涉及一家文化公司,该公司认为自己拥有该录音的版权,并且可以许可人工智能的使用,这是行业中的常见错误吗?李振武:主要的误解是拥有录音的制作权就自动授予了对这些元素进行商业利用的许可。录音中包含的声音个性。事实上,两者之间的界限非常明确。录音制品创作者的权利保护创作成果本身:录音制品作为“作品”或“产品”的原创表达、复制、发行、在信息网络上的传播以及其他专有权利。权利人有权处置该录音制品的使用。然而,话语权是一种精神权利,保护自然人的个人排他性声音和个人利益。保护声音的识别特征、情感表达等人格属性,禁止未经授权的录音、使用、扭曲、篡改或在商业活动中使用。这里的中心界限是,录音的合法使用并不意味着它可以剥夺其特征并用于创建原始录音的新的独立表示(例如用于训练或生成)。恩格拉尔人工智能)。从行业惯例来看,此类配音协议往往只允许配音演员在本次录音中使用,而无法超出该范围使用配音演员的声音,从而无法授权超出当前合作范围的AI制作或使用。尹某某案的判决还明确,使用他人音频训练人工智能模型,必须获得音频权利人明确、具体的许可。这种使用不能仅由录音版权所涵盖。新京报记者:声明第五条称:“请不要发表含有我声音的人工智能作品,即使其中包含‘复制’、‘创作衍生品’、‘学习与分享’等免责声明。”从法律角度来说,标记为“非营利”或“交换生”是否可以免除责任?什么时候可以免除责任?什么时候不呢?李振武:“失业者将文章标记为“兴趣”或“交换生”并不构成失业自动免除责任。使用是否侵权取决于该使用本身是否属于禁止权利的范围以及是否属于法律规定的豁免范围。即使被贴上“非商业性”的标签,如果行为本身构成对权利人人工智能合成版声音的非法复制、制作或者公开播放,则可能侵犯权利人的音频权利。的权利。言论权是一项精神权利,其例外情况应参照适用于肖像权的规定。根据《中华人民共和国民法典》第一千零二十条关于合理使用肖像权的规定,下列行为可以不经肖像权人同意而进行。在司法实践中尊重话语权:可用于个人学习、艺术欣赏、课堂教学或科学研究的需要。必须用于实现新闻报道ts。国家机构将在依法履行职能所需的范围内使用这些信息。不可避免地用于指示特定的公共场合。为了保护公共利益或者肖像权人的合法权益而创作、使用或者发表肖像权人肖像的行为。就人工智能生成的声音而言,我认为应用会非常严格和有限,比如要遵守“必要范围内”、“不得已的原因使用”等严格限制,不得侵犯权利人的权利和合法利益,比如利用信息技术手段进行诽谤、篡改等。据此,人工智能是语音特定的:如果仅限于个人,在完全私人、非公共的环境中使用非常小的声音样本进行技术实验或学习可以免除责任。然而,当涉及到复制时、制作并向第三方(包括在线平台)分发声音,很难将其认定为“个人使用”和“在必要的范围内”。其次,在课堂教育中,播放人工智能生成的对比语音来说明语音合成技术可能是合法的用途。然而,将其作为“衍生”作品出版超出了所需的教育演示范围。最后,它还可以在播放与违规相关的音频剪辑时应用,以报告人工智能违规事件。新京报:202根据《情报服务深度合成管理规定》和2019年9月起施行的《人工智能生成合成内容标识办法》,平台对人工智能生成内容负有一定的法律义务。然而,与分享名人面孔相比,声音更难以识别,而且声音相似的人很多。这是否会带来问题哪个平台会让审计变得更加困难?这是防御吗?李振武:相比于人脸的视觉分享,声音相似度的判断更加主观,甚至可能在自然音色上也相似。这对主动平台审查提出了重大的技术挑战,但不能作为完全的防御理由。审核困难并不影响平台在收到版权人明确、具体的侵权通知后的处理义务(例如提供原声样本、侵权内容链接、对比说明等)。此时,平台必须采取行动,因为它“明知”或“应该知道”潜在的违规行为。司法实践中,判断平台是否履行注意义务时,会考虑现有技术水平。当声纹识别和AI内容检测技术相对成熟且价格合理时成本,平台需要实施和使用这些技术来执行某种程度的过滤和拦截。如果人工智能声音作品传播广泛,明确识别已知配音演员(例如标题中直接使用配音演员姓名),且侵权事实明显如“红旗”(源自“红旗主义”,指网络服务提供者知道或应当知道平台上存在侵权内容,且侵权内容如“红旗”一样明显),平台无法逃避责任。这是因为审计很难。因此,虽然审核困难可以作为平台声称无法实现100%主动过滤的理由,但这并不能免除其在收到通知后应进行处理或在技术可能的范围内采取合理预防措施的义务。 新京报:从平台角度来看,如果您收到此类通知对于张富政的言论和投诉,平台需要多长时间才能依法回应?应用通知和删除规则的标准是什么?李振武先生:我们的法律没有规定统一、精确的小时数,但确实要求“及时”。在实际应用中,各个平台的处理方向并不一致。 “删除通知”规则的适用标准:首先,通知必须符合条件且有效。通知内容必须包括权利人的真实身份和侵权的初步证据。初步证据必须能够准确识别侵权内容(例如特定URL链接)并描述侵权事实(例如音频比对)。如果有人将报告委托给其他人,也需要有明确的审批程序。接下来,需要对平台进行事前审查。连接平台必须进行正式审查才能确定资格。应及时向投诉用户发送符合条件的通知,并根据初步证据决定是否采取删除等措施。三、采取“措施” 应根据违规行为的严重程度选择措施,包括但不限于删除、屏蔽、断开或终止服务。新京报:即使侵权内容数量巨大,如果侵权人没有直接利益(例如只是上传供网友免费观看),赔偿金额是否会受到影响?李振武先生:即使违法者没有得到任何直接利益,也应该承担赔偿责任。即使违法者没有获得任何直接利益,大量的意见也是确定赔偿数额的重要因素。这直接反映了侵权的程度、损害的严重程度以及对市场的摊薄影响。e 权利人声音的商业价值。在尹先生一案中,法院综合考虑该产品被浏览量超过32亿次的事实、侵权内容以及原告的声音价值,做出了赔偿经济损失的决定。因此,播放量是支持更高补偿金额的重要基础。新京报:如果平台未来想要合法获得AI培训的CV认证,认证协议有哪些规定?精神状况应该包括在内吗?李振武:完整的AI语音训练许可协议至少应包括以下主要条款: 授权目的(指定具体的声音样本)。授权的性质和范围(无论是独占的还是可再许可的,指定特定和禁止的使用场景);衍生结果的权利所有权(明确人工智能中的知识产权​​模型及其输出内容以及与权利有关的事件和利益分配)。报酬及支付方式。保护个人权利(签名方式、禁止诽谤性使用)。合约的关键是权利链条清晰、使用场景具体。新京报:从更宏观的角度来看,我国现有的话语权法律保护框架是否足以应对AI时代的挑战?李振武:我国初步建立了应对AI时代语音挑战的法律框架。 《民法典》确立了言论权作为精神权利的地位。该案揭示了一个基本规则:人工智能语音可以被识别和保护。 《互联网信息服务深度合成管理规则》和《人工智能合成内容展示办法》规定了人工智能生成内容的展示和管理义务。因此,我们认为法律层面就足够了。但在具体实践中,还需要完善具体的授权机制、侵权判定的技术标准、平台责任与技术可行性的平衡、行业自律标准等法律规定。新京报记者 吴龙珍编辑 吴龙珍编辑 李丽君

推荐文章

发表评论

邮箱地址不会被公开。 必填项已用*标注