AI扮聲侵權恐成灰色產業鏈 配音界掀維權潮促立法規管

https://www.stheadline.com/realtime-china/3555516/AI%E6%89%AE%E8%81%B2%E4%BE%B5%E6%AC%8A%E6%81%90%E6%88%90%E7%81%B0%E8%89%B2%E7%94%A2%E6%A5%AD%E9%8F%88-%E9%85%8D%E9%9F%B3%E7%95%8C%E6%8E%80%E7%B6%AD%E6%AC%8A%E6%BD%AE%E4%BF%83%E7%AB%8B%E6%B3%95%E8%A6%8F%E7%AE%A1

2026/03/23

圖文引用自:www.stheadline.com

人工智能(AI)技術發展一日千里,惟其衍生的侵權問題亦日益嚴重。內地多名資深配音演員近日相繼公開發聲,抗議有公司或個人在未經他們授權下,擅自採集其聲音素材,用作AI模型訓練及商業牟利,揭示出一條「素材採集、內容生成、流量變現」的灰色產業鏈。業內人士及法律專家均指出,AI仿聲侵權行為比「AI換臉」更為隱蔽,令維權之路倍添困難。

香港配音員葉清聲音遭盜用
曾聲演《甜蜜蜜》黎小軍、《無間道》劉建明等經典角色的本港著名配音演員葉清,近期便深受其害。有短片平台出現一套由AI生成的短劇,旁白聲線與葉清本人高度相似,但他直言從未參與該製作。葉清坦言,這種未經許可的聲音盜用行為,會令其聲音「滿街都是」,長遠或使外界誤以為配音演員的專業價值可被輕易取代。

類似情況在業內屢見不鮮,曾為《甄嬛傳》等知名影視作品配音的季冠霖,其聲音亦被用於改編短劇。她憂慮,AI仿聲技術若無序發展,將嚴重削弱配音行業應有的藝術水平,更可能帶來法律風險。「倘若有人利用我的聲音,生成涉及不法、詐騙或虛假廣告的語音,屆時將難以釐清責任誰屬。」

法律界指維權存三大困境
中國政法大學人工智能法研究院院長張凌寒指出,AI仿聲不僅可能侵犯配音演員的聲音人格權,更可能觸犯相關影視作品的版權。然而,在實際操作層面,維權卻面臨重重阻礙。

取證困難:網上流傳的AI語音多經二次加工,內容零碎,難以追溯侵權源頭及固定完整的侵權鏈。

鑑定困難:聲音容易被剪輯及修改,AI可輕易微調音色語調,甚至混合多人聲紋,令技術上的聲音鑑定工作極其困難。

法律滯後:目前針對AI聲音侵權的具體法律條文及監管機制仍未完善。

業界籲多管齊下 探索合法共存模式
面對困境,業界及專家呼籲必須多管齊下,探索AI技術與配音行業的合法共存之道。葉清認為,聲音使用方必須正視法律問題,循規蹈矩取得授權。法律專家則建議,在監管政策出台前,網絡及AI軟件平台應加強行業自律,主動禁止用戶在未獲授權下,使用他人聲音進行AI生成。

提供相關智權新聞
若您有智權相關新聞,也歡迎透過email連繫。

探索更多來自 華鼎專利商標 的內容

立即訂閱即可持續閱讀,還能取得所有封存文章。

Continue reading

Exit mobile version
%%footer%%