AI 聊天傷透心:Google、Character.AI 涉青少年自殺案和解

這篇報導的核心在於Google與Character.AI將與因其AI聊天機器人對未成年人造成傷害,甚至導致自殺的家庭達成和解。多個州,包括科羅拉多州、德克薩斯州和紐約州,的家庭已提出訴訟,指控這些公司存在疏忽、不正當交易行為和產品責任等問題。其中一個案例涉及一位母親Megan Garcia,她的十四歲兒子在與Character.AI的聊天機器人進行有害互動後自殺。

Google在2024年8月以27億美元的價格與Character.AI簽訂了授權協議,並聘用了該公司的創始人Noam Shazeer和Daniel De Freitas,而這兩人恰好是訴訟中被點名的被告。此舉可視為Google試圖在法律風險中尋求技術優勢,並將相關人才納入其DeepMind AI部門。

這起事件凸顯了生成式AI技術快速發展所帶來的倫理和安全挑戰。自OpenAI推出ChatGPT以來,AI技術已從簡單的文字聊天發展到複雜的圖像、影片和角色互動。然而,這種快速發展也伴隨著潛在的危害,尤其是在未成年人使用這些產品時。Character.AI已宣布禁止18歲以下用戶進行涉及浪漫和治療等敏感話題的自由對話,但顯然為時已晚,無法阻止悲劇的發生。

我的理解是,這不僅僅是一起法律訴訟,更是一個警鐘。它提醒我們,AI技術的發展必須與相應的監管和倫理考量同步進行。企業在追求技術創新的同時,必須對其產品可能造成的社會影響負責,特別是對於心智尚未成熟的未成年人。這次和解可能只是冰山一角,未來類似的案件可能會陸續浮現,促使業界更加重視AI安全和責任問題。

原文網頁:Google, Character.AI to settle suits involving minor suicides and AI chatbots (by Jennifer Elias)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *