近日,多名配音演员相继公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。(3月22日上观新闻)
近年来,随着AI技术的不断发展,“AI魔改”渐成风尚。在“AI魔改”里面,其不仅有各种影视画面的改编,也有声音的“模仿”。这一现象在引发关注的同时,也引起极大争议。近日,多名配音演员集体发声,反对未经授权擅自采集其声音素材用于各类商业行为。从《甜蜜蜜》的黎小军,到《无间道》的刘建明,再到《甄嬛传》的甄嬛,这些承载观众记忆的经典声音,正在被AI悄然模仿,让配音演员们既愤怒又无力。
与AI换脸不同的是,“AI仿声”更加隐秘,也更加难以追溯。观众听得见声音,却看不见侵权者;演员知道被侵权,却找不到源头。这一无奈,让“AI仿声”变成了侵权的灰色地带,甚至还形成了一条从素材采集到内容生成再到流量变现的灰色产业链——声音从影视作品中被提取,喂给AI模型进行训练,生成的内容被投放到短视频平台赚取流量,甚至是用于虚假广告和违法语音。这一乱象负面影响日渐显现,亟待正视与纠偏。
“AI仿声”明显侵权,但在维权中却面临多重困境,这也导致侵权行为时有发生,甚至愈演愈烈。首先是取证难,AI语言多为碎片化的二次加工,源头难以追溯,证据链难以固定。其次是鉴定难,声音听得见却抓不住,AI微调后相似度极高却并非完全“复制粘贴”,在技术鉴定上存在一定困难。最后是追责难,对侵权方来说,早就准备好来自公开网站、公共版权等一系列推诿扯皮的说辞,让被侵权人难以自证。
技术无对错,但滥用就必须付出代价。从法律上来说,“AI仿声”有可能侵犯演员的人格权和影视作品的著作权,但仅有法律还不够,要治理“AI仿声”仍需多措并举。一则,技术防范要不断升级,要通过技术嵌入手段给声音加上“水印”,让每一条AI语音都可溯源。二则,行业规范要与时俱进,堵不如疏的道理在“AI仿声”一事上同样适用,只要演员同意且授权,就该允许“AI仿声”的存在。三则,平台责任要加强,作为“把关人”,平台要加强审核把关,规范“AI声音”的使用,及时对侵权内容进行处罚,以形成必要的震慑力。
治理“AI仿声”,既是让技术回归工具理性的做法,也是对法律尊严的积极维护。只有让“AI仿声”行驶在合法合规的轨道上,这一行业的发展才能行稳致远,也才能让公众更好地拥抱AI时代的到来。