
2024/07/16
圖文引用自:managertoday
AI 只是工具,重點在使用者的心態
人工智慧服務,在本質上是一種中性的工具。若生成之內容侵害了他人的權益,是使用工具的人需要負責,並非咎責工具本身或製造工具的人,就像利用文書處理軟體 Word 編寫文件,若最終的內容被發現是抄襲自他人,也不該將責任推給微軟。
因此,使用者需要擔負所生成內容的最終責任,不可以 AI 生成作為侵害他人權益的藉口。若內容公開後造成了第三方的損失,輕則被公眾譴責,重則被告上法院,企業亦然。AI 工具是個黑盒子,無從一窺內部的運作方式。所以使用者若要避免風險,首先能做的事,就是在「輸入」上下功夫。以下說明 3 種下提示詞時可能犯下的錯誤。
錯誤 1:刻意生成他人作品
生成式 AI 的輸出所最有可能造成的風險,就是著作權侵害。就技術面而言,由於 AI 模型是由極大量不同來源的資料訓練而成,所以只要不刻意為之,其實不容易生成與單一作品高度近似的內容。
從以上例子可以看出,如果筆者從沒見過 Hello Kitty,即使不小心輸入了這個角色的特徵,也不至於生成出侵權的作品。然而,如果提示過於精確,甚至直接提供了作品或角色的名稱,會發生什麼結果?
答案是,當提示詞過於精確時, AI 很可能會被誘導輸出高度相似的內容,大大提升了侵權的可能性。這也呼應了前面所提到的觀念:使用者必須要擔負最終責任,因為內容會不會侵權,往往是由使用者決定的。
其他更嚴重的侵權行為還包括將既有的文章、圖像、影片等作品直接上傳,要求 AI 進行模仿或修改。須特別提醒的是,複製並上傳他人的著作權作品,本身就已經是侵權行為。許多 AI 服務為避免使用者蓄意侵權,已經內建了辨識、阻擋此類提示詞的功能。
錯誤 2:模仿創作者的風格
AI 可以藉由大量學習藝術家的作品,輕易模仿畫風、嗓音等個人風格。相較於著作權,這比較屬於法律上的模糊地帶,因此也成為有心人士的謀財管道之一。舉例來說,在 Youtube 上搜尋「AI 孫燕姿」,就可以找到許多與原唱真假難辨的 AI 生成歌曲。
個人風格未必能受法律所保護,但也並不代表能夠免除使用上的風險,對企業尤其是如此。例如在 ChatGPT 造成轟動之前,就有日本廠商推出 AI 工具mimic,只要上傳作品到系統,就能大量產生相同畫風的作品。
mimic原本只是一個讓繪師利用 AI 輔助繪製自己作品的工具,但由於無法阻止他人的惡意濫用,最終在一面倒的批評聲浪下中止了服務。這充分體現社會賦予企業的道德責任往往高於法律的規範,所以即使有模糊空間也不應涉足。
因此,若企業想要以他人風格生成自有內容,仍建議須取得本人之同意。在mimic 後來釋出的新版本中,官方也強化了帳號的審核,並提高透明度,在生成的作品中加上浮水印再強制公開。
錯誤 3:使用他人的身分識別
除了針對作品的模仿外,使用者也不應蓄意讓 AI 工具製作出包含名人面孔,或是知名企業識別的圖像。2024 年 1 月,美國就有 podcaster 因為生成已過世之知名喜劇演員 George Carlin 的演出影片,並在 Youtube 上發布,讓人誤以為這是 George Carlin 本人的演出,而在法院被起訴。…