随着人工智能技术的不断进步,网络上利用AI技术“克隆”他人容貌、声音的现象日益普遍,由此引发的纠纷也日渐增多。北京互联网法院近期审理了一起全国首例AI生成声音的侵权案件,判决中明确指出,在AI生成的声音能被识别为特定自然人的情况下,该声音权益的保护将延伸至AI生成的内容,判定标准则基于普通听众能否辨认。
专家们在接受访问时强调,AI技术的发展和应用必须建立在保护个人权益的基础之上。这要求提高技术的安全性与可靠性,防止声音等个人特征被非法滥用;同时,行业内部应加强自律,并构建严格的监管体系,确保AI技术的健康发展,遵循以人为本的原则。
当前,AI技术能够高度逼真地合成声音、图像乃至视频,这种“以假乱真”的能力被不法分子利用,实施如电信诈骗等犯罪活动。例如,有人假冒他人声音要求转账,对受害者造成财产损失。法律专家指出,声音作为人格权的一部分受到法律保护,未经允许模仿或利用他人声音谋利均构成侵权。
AI技术还被用于“复活”已故人士,这一做法引发了广泛的伦理争议。电商平台上的服务宣称能基于AI技术使逝者的影像“开口说话”,价格依据复杂度而定,最高可达万元级别,且生成内容的相似度极高。法律专家表示,此类行为若未经权利人同意,即便出于悼念也可能触犯法律,特别是当涉及商业盈利或其他违法目的时。
为应对AI语音合成技术带来的侵权风险,国家网信办等部门已出台一系列管理规定和暂行办法,要求服务提供者合法获取训练数据,不得侵犯知识产权和个人信息,并对生成内容进行显著标识以避免混淆。同时,科技部等机构发布了科技伦理审查办法,涵盖AI算法模型等相关领域的伦理审查。网络平台如抖音也发布了针对AI生成内容的规范,对违规行为实施严惩。
专家建议,未来应继续完善AI领域的法律法规,细化声音权益保护的界定,规范技术应用,加强技术伦理建设,提高公众认知,并在司法实践中明确侵权责任,共同维护一个健康、安全的AI技术环境。