如果有一天,你突然在网上听到自己的声音,却完全不记得曾经亲口说过这些话,是否会陷入庄周梦蝶、盗梦空间般的恍惚?近日,《中国新闻出版广电报》刊文指出:如今不少短视频平台上流传着各类仿冒视频,克隆明星、学者等公众人物的声音,散播真假难辨的内容。
过去,声音模仿技术依赖个人技艺,旁听者能从细微处分辨真假,如同皮影投射,“京中有善口技者”曾是声音模仿技艺的最高赞誉。当下,AI合成语音技术却能将声调、语速、气口,甚至情绪起伏完全复制、几可乱真。
当独特的声音,沦为可买卖、可篡改的数字符号,声音和人类主体之间的天然绑定关系被解除:你没说过的内容,AI能替你说;你从未身临的场景,AI替你造——嘈杂车站、雷电雨声,甚至是求救哽咽随意生成。声音则变成可任意复制、拼贴和调色的“数字皮肤”。
听觉,从来不是一条单薄的感官通道。“声振林木,响遏行云”,人不仅是用耳朵这一个器官在听,而是用整个身体在感知。声音景观以固有的包围性与环绕性,引发身体感官共振。因而,AI深度伪造技术制造的不只是“声音”,而是一整套沉浸式听觉场,让人在生理层面误以为“他就在那儿”,并放下警惕。非法的AI声音克隆,因其无所不在的欺骗性,甚至比视觉伪造更隐秘。
更棘手的是,AI克隆声音的技术门槛极低,易形成产业链条。几分钟素材、几行代码,一个人的声纹信息便可复制。从专业团队到素人玩家,都能参与到此种“半真半假”的侵权行为中。根据《中华人民共和国民法典》第一千零二十三条第二款规定:对自然人声音的保护,参照适用肖像权保护的有关规定。而技术赋权下,取证难、认定难,可能让法律条例在执行时面临前所未有的挑战,AI正将“声音被偷”推向一个监管难以完全触及的灰色地带。
纵容AI克隆声音,不仅伤害歌手、配音从业者、学者等公众人物,更会引发深层的社会问题。如今网络平台上流传着各类仿冒视频,有的逗人一笑仅为娱乐,有的则诱导消费、投资,甚至涉及极端观点、导向欺诈违法行为,分辨力弱的网民一听便信、关心则乱,几秒钟就被“熟悉的声音”带至陷阱之中。
“非黑即白”的判断标准不可取,但更深的隐患在于我们正失去对声音的信任。在新闻配音、数字遗产、无障碍阅读、影视制作等领域,AI的诸多积极价值一目了然。问题不在技术本身,而在其使用导向与伦理边界。若要避免声音沦为可以随意捏造、操控、变卖的“廉价资源”,须对不同应用场景区分,对是否获得授权划红线,对滥用行为进行法律约束。
治理AI克隆声音乱象,监管须走在技术之前,而非被动滞后“补漏”。未来,持续完善符合人工智能发展需求的治理体系、提升相关治理能力,保持政策灵活性。各类平台理当承担主体责任,建好“技术护栏”,让声音克隆可查、可控、可追溯。内容传播平台要把好“入口”,提供买卖服务的平台也应对克隆行为严格管理。只有发布者自律、平台尽责、监管到位,形成治理合力,才能让技术在制度的边界内平稳运行。
树叶和泉水的声音究竟意味着什么?它从来不只是物理现象,而是构建世界、承载人性的独特通道。从授权制度、技术标识到法律规制,固然都至关重要,但更重要的是广泛公众意识的提升:认识到声音是人的延伸、情感的触角,而非市场的玩物。
评论