如今,社交平台上,个人声音被“收集、合成、制作、模仿”,甚至“篡改”的现象已经较为普遍,成为有些人猎奇恶搞,获取流量的工具,不仅是名人,甚至普通人也深受其扰,昨天,最高人民法院对外发布六个典型案例,都是利用网络和信息技术侵害人格权的,大部分还和AI合成技术相关。 这些案例的典型之处到底在哪?先来看看。 未经许可AI化使用他人声音 原告获赔25万元 在本次最高法公布的利用网络信息技术侵害人格权的典型案例中,有一起未经许可AI化使用他人声音的案例。 北京互联网法院党组成员副院长 孙铭溪:本案是全国首例的AI声音侵权案件。本案原告曾为甲公司录制录音制品,甲公司将该录音制品的音频提供给乙公司使用。乙公司以该音频素材进行AI化处理后,形成了软件产品,使用该产品就可以将任意文字内容以原告的声音展现出来。乙公司将该产品对外出售,丙公司购买该软件产品又包装成了自有软件产品,提供给用户使用。经查,上述视频中的配音来源于丙公司的软件产品。原告并没授权上述任何公司将自己的声音或音频AI化。 法院经审理认为,声音作为一种人格权益,具有人身专属性,任何自然人的声音均应受到法律的保护,对录音制品的授权并不意味着对声音的授权,未经权利人许可,擅自使用或许可他人使用录音制品中的声音,构成侵权。 北京互联网法院党组成员副院长 赵瑞罡:当下AI智能语音生成的技术越来越发达的同时.需要这些相关的企业应当首先获得自然人对于声音权益的合法授权.再做进一步的产业开发. 不仅仅是声音,随着算法越来越先进,视频中声音与画面口型的合成也早已让人真假难辨。 我跟你说,癌细胞根本不存在,为什么有人得了癌症以后就治不好?我敢保我不讲你们这辈子都不会知道真相。 这是一段伪造北京大学国家发展研究院李玲教授的视频。随后,李玲教授发布公开声明表示,网上出现的大量假冒本人推销医药书籍和治疗手段的虚假视频,大多是人工智能AI合成,本人从未在任何平台推销过医药书籍和医疗产品,请大家不要上当受骗。 北京大学国家发展研究院教授 李玲:我觉得这个不仅损害我的利益,更多的其实损害了公众的利益。特别希望我们老年朋友们一定要识别,要看清楚再买他的东西,他是不是这一行的专家。像我是搞政策研究,这治疗我不是行家,不会推荐它。 擅用他人肖像供用户“换脸” 应承担肖像权侵权责任 如果自己不去伪造他人的视频,而是注册会员使用一款软件,成为注册会员后使用他人的照片视频进行面部替换,体验换脸的效果,这样的做法行不行呢?从最高法公布的案例看,未经自然人同意,他人不得制作使用公开自然人的肖像。 原告彭某某的委托诉讼代理人:王某某在抖音这个账号内发布了很多的包含她个人肖像的一些视频。然后在她的这个古风圈具有一定的知名度。涉案的这个app是由这个被告公司开发和经营的。然后这个公司在这个换脸的软件当中上架使用了彭某某的个人肖像视频,供用户通过付费成为会员之后,使用自己的照片进行面部替换。 应该说这六起典型案例都是集中在对人格权的侵害,根据《民法典》对人格权的具体定义,它包括了我们的身体权、健康权、姓名权、肖像权、名誉权、荣誉权,还有隐私等。那么这一次相较于过去传统的侵权案例,当前发生在线上和网上的AI侵权有什么样不同?我们如何规范使用AI技术?如何应对AI技术侵害?接着来看。 最高人民法院民一庭三级高级法官 王灯:根据我们的办案总结归纳,主要有三个特点:一是随着技术的发展,侵权行为很多是在网络上实施,侵权行为具有隐蔽性和复杂性;二是侵权手段较为便捷,人格权受到侵害的威胁较大,侵权的对象越来越具有普遍性;三是根据受害人被侵权的程度不同,侵权人可能承担民事责任、行政责任,甚至承担刑事责任,侵害的后果具有严重性。 AI技术侵权行为隐蔽性 复杂性强 专家表示,在当前的司法实践中,证据问题是此类侵权案件的难点。 最高人民法院民一庭三级高级法官 王灯:在网络信息侵权领域,侵权主体隐秘性强,要确定实际的侵权主体有时很困难。同时,由于网络信息瞬息万变,可以说是秒行千里,受害者作为一个普通的民众,取证能力比较弱,保全证据更加存在一定的难度。因此,及时制止受害人的损失扩大有一定的难度。比如说有一个信息当事人在网络里攻击了另外一个人,虽快速删除,但影响造成了,这个侵权找不到人,所以在这样的一个情况下,如果受害人主张侵权人构成侵权,这个后果如何来举证证实,对受害人来说确实是有较大难度。 公众应增加自我保护和维权意识 在网络技术快速迭代且普及的背景下,普通人在日常生活中也常常会使用到AI技术,那么在使用时普通人如何规范自己的行为,当自己被侵权时,又该如何维权,专家也给出了相关建议。 最高人民法院民一庭三级高级法官 王灯:增强自我保护和维权意识,充分注意网络分享个人信息的尺度,保护好社交账号的隐私权限,对明显侵害自身权益的行为,要及时通过截屏、录屏、公证等方式留存证据,及时向平台投诉,要求删除,必要时要果断报警,或者提起诉讼。 中央网信办部署开展“清朗·整治AI技术滥用”专项行动 北京上海已取得阶段性成效 当发生“诽谤信息”,甚至“侵害个人人格权”等事件时,我们当然可以举起司法保护的利剑。但是除此之外,在前置的环节当中还有哪些可以发力的地方呢?事实上,为了规范AI服务和应用,4月30日中央网信办就印发通知,在全国范围内部署开展为期三个月的“清朗整治AI技术专项行动”,当前已有不少成效。 此次专项行动共有两个阶段。第一阶段,重点整治六类突出问题。第二阶段重点整治七类突出问题。四月下旬以来,上海市委网信办就聚焦六类突出问题深入开展第一阶段专项行动。 上海市委网信办网络技术处处长 施敏:在过去两个月,我们主要推进了四方面的工作。首先是合规清理,督导生成式服务提供者、落实备案等合规要求。迄今我们已经完成了82款大模型的备案,87款应用的登记。其次是组织小红书、哔哩哔哩等重点平台清理处置违规内容。比如说像人脸、人身克隆,一键脱衣,这些违规产品的相关炒作信息,净化网络环境,各重点网和平台一共拦截清理了违法违规信息82万条。处置违规账号1400余个,下线了违规的智能体2700余个。第二指导重点AI平台健全风控体系,提升技术力。此外还有加强重点领域的监管及AIGC标识的落地等等。 除了上海,北京市委网信办经过第一阶段集中攻坚,全市AI技术滥用治理也取得了阶段性成效。 北京市委网信办网络数据与技术处副处长 祝蕾:我们针对AI技术滥用专项行动制定了实施方案,组织属地30家重点大模型企业和网站平台开展自查自纠。并针对重点企业进行技术检查。围绕大模型生成内容标识管理,也依托了AI模力大讲堂,开展了三场的专题培训,指导企业落实标识法。 与此同时,此次北京市清朗整治AI技术滥用专项行动还上线了全国首个省级AI技术滥用治理举报渠道,收集网民举报线索,及时研判处置。 北京市委网信办网络数据与技术处副处长 祝蕾:目前已经收到的举报线索共26个。这对我们接下来的工作非常有帮助。根据举报内容,我们会督导相关企业落实情况核查,加强内容审核和训练语料管理。 清朗整治AI技术滥用专项行动的第二阶段重点整治七类突出问题,其中包括利用AI制作发布谣言、色情低俗内容,利用假冒他人实施侵权违法行为,利用AI网络水军活动以及侵害未成年人权益等。 新闻观察:AI侵权终遭法律重拳 当下,网络平台上个人声音、人脸信息被随意收集、合成、模仿甚至篡改的现象泛滥成灾,因为网络信息瞬息万变,从名人到普通大众,我们每一个人都可能会成为AI侵权的受害者,甚至成为他人博取流量的工具。看完最高人民法院发布的六个典型案例,我也是细思极恐,这些案例无一不凸显AI 技术对人格权——身体权、健康权、姓名权等的严重侵害。但我们迫切需要让更多公众了解最新的AI侵权的形式,敲响人们对于人格权保护的警钟。 《民法典》人格权编首次以立法形式确立声音权益保护,参照适用肖像权规则。这一制度设计在AI时代显现出前瞻性价值,为司法实践提供了明确法律依据,但AI技术的飞速发展仍让侵权手段变得愈发隐蔽复杂。中央网信办迅速行动,开展清朗整治AI技术专项行动,取得初步成效。然而,这仅是开端。 未来,我们亟待紧跟时代变化脚步,在技术开发初期便织密伦理法网,让技术研发者深知技术应用边界;平台需严格审核内容,为用户把好关;同时,公众也应提升自我保护意识,保护好社交账号的隐私权限,对明显侵害自身权益的行为,要及时通过截屏、录屏、公证等方式留存证据,及时向平台投诉,要求删除,必要时要果断报警,或者提起诉讼。在技术浪潮中守护好每个人的人格尊严,让 AI为人类福祉服务,而非沦为侵害权益的利器。 (责任编辑:) |