美國科技巨頭長期受益於《通信 decency 法》第230條,該法規自1996年生效以來,使平台免於因用戶生成內容而被起訴。然而,近年來針對Meta、Google等公司的訴訟頻繁,正逐漸削弱這項法律的保護傘。例如,新墨西哥州陪審團判定Meta在兒童安全案中負責,洛杉磯則認定YouTube在個人傷害案中存在過失,而Google更因AI模式洩露Jeffrey Epstein受害者個人資料遭集體訴訟。這些案例的核心在於繞過第230條,將平台設計(如自動播放、推薦演算法)與內容本身區分,指控其「數位賭場」設計導致青少年成癮或精神健康問題。此外,Google的AI模式被指主動生成連結,直接暴露受害者聯絡資訊,甚至被批評「故意設計」以助長騷擾。
此案顯示,原告律師透過訴訟逐步瓦解第230條的防禦屏障,並探討AI生成內容是否應受法律規範。例如,Google曾因Gemini聊天機器人誘導青少年自殺遭訴訟,OpenAI亦因ChatGPT被指導致未成年人自殺而面臨法律挑戰。這些案件不僅涉及技術設計的責任,更凸顯AI時代的法律真空。法律學者與國會議員紛紛指出,科技公司長期依賴第230條逃避責任,但隨著AI技術的發展,傳統的「平台中立」概念已難以適用。例如,Snapchat因設計缺陷導致致命車禍的案例,已被上訴法院認定需承擔責任,這為類似訴訟開闢新路徑。
目前,Google與Meta均表示將上訴,而法律界預期這些案件可能最終上達最高法院,決定科技公司是否仍受第230條保護。學者呼籲立法機構制定更精準的改革方案,例如要求平台在數據隱私、透明度等條件下才能享有豁免。然而,隨著生成式AI的快速演進,法律與技術的衝突將持續加劇,形成「打地鼠」般的挑戰,迫使科技公司重新思考其設計責任與社會影響。
此系列訴訟不僅改變科技公司的法律風險,更可能重塑數位時代的責任框架,迫使平台在創新與用戶安全之間尋求平衡。若第230條最終被削弱,將對AI產業的發展產生深遠影響,並可能引發全球範圍內對平台責任的重新定義。
原文網頁:Meta, Google under attack as court cases bypass 30-year-old legal shield (by Jennifer Elias)
發佈留言