這篇報導主要講述了AI伴侶平台Character.AI因應日益嚴重的安全問題,宣布將禁止18歲以下用戶與其AI機器人進行開放式對話。雖然此舉被視為一個積極的改變,但專家們也警告說,這可能不足以完全解決問題。
Character.AI允許用戶創建、聊天並公開分享AI伴侶,但自推出以來,平台卻被濫用於創建與真實人物(例如涉嫌犯罪者)相關的機器人,甚至被指控與未成年用戶自殺事件有關。目前,該平台正面临多起訴訟。儘管Character.AI聲稱已實施安全措施,例如檢測自殘言論並提供求助熱線,但Common Sense Media等機構認為,該平台存在鼓勵自殘、進行性角色扮演以及宣揚有害行為的風險,對未成年人的風險評估為“不可接受”。
報導指出,年輕人越來越感到孤獨,因此轉而尋求AI伴侶來填補情感空虛。心理治療師表示,與AI互動可以刺激大腦釋放多巴胺,帶來愉悅感,但AI無法取代真實的人際互動。專家們也擔心,Character.AI的設計旨在建立用戶的情感依賴,並鼓勵他們長時間停留在平台上。
Character.AI的新政策雖然受到歡迎,但專家們也提醒,青少年可能會想辦法繞過這些限制。因此,持續監控和加強安全措施至關重要。總體而言,這篇報導揭示了AI伴侶平台在安全性和倫理方面所面臨的挑戰,以及保護未成年用戶的重要性。
我認為這份報告反映了科技發展與社會責任之間的緊張關係。AI技術的快速發展帶來了便利和娛樂,但同時也伴隨著潛在的風險,特別是對心智尚未成熟的青少年而言。Character.AI的案例警示我們,科技公司不僅要追求創新,更要負起保護用戶安全的責任。單純的年齡限制可能無法完全解決問題,更需要更完善的監控機制、更有效的內容審核以及更深入的用戶教育。此外,社會也需要關注年輕人日益嚴重的孤獨感,並提供更多支持和關懷,幫助他們建立健康的人際關係。
原文網頁:Character.AI to ban teens from open-ended chats: Human interaction is crucial, psychotherapist says (by Gili Malinsky)
發佈留言