AI換臉創傷:受害者抗爭法律漏洞,Minnesota立法封殺非自願深度偽造

CNBC報導指出,2024年夏季明尼蘇達州一群女性發現其男性友人利用DeepSwap等AI工具,將她們的Facebook照片生成性化影像與影片,造成嚴重心理創傷。此事件凸顯「裸化」(nudify)APP的氾濫,使非自願的AI生成色情內容變得易於製造,且多數服務透過Facebook廣告推廣、蘋果與谷歌應用商店下載,甚至僅需簡單搜尋即可接觸。受害者Molly Kelley指出,因未涉及未成年人且未公開內容,目前難以追究法律責任,促使她們推動明尼蘇達州立法禁止此類服務,擬對提供「裸化」功能的科技公司課以每件50萬美元罰款。然而,Trump政府將AI發展視為「國家安全要務」,可能衝突州級立法努力。DeepSwap公司資訊不透明,其網站曾出現香港與愛爾蘭地址混用的矛盾資訊,且未回應CNBC聯繫。專家指出,AI技術的快速演進遠超法律規範速度,受害者如Jessica Guistolise仍受創深重,甚至因攝影機聲響引發恐慌,反映AI濫用對個人身心的長期傷害。

此報導揭示AI技術在性侵與隱私權領域的倫理危機。當前法律框架難以應對非自願AI生成內容的製造與流通,且「裸化」APP常以「臉部交換」等娛樂功能包裝,實質卻用於色情目的,形成法律與技術的落差。受害者心理創傷與立法追趕的困境,凸顯科技發展與社會規範之間的緊張關係,亟需跨國界、跨層級的法規協調與技術監管。

原文網頁:5 takeaways from CNBC’s investigation into ”nudify” apps and sites (by Jonathan Vanian)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *