AI聊天機器人設限!未成年人將不得與AI進行親密對話,保障青少年安全

這篇報導主要講述了Character.AI公司為應對青少年與人工智慧聊天機器人互動所帶來的安全隱患,即將採取一系列措施,限制未成年人使用其平台的自由對話功能。尤其是在去年發生的青少年 Sewell Setzer III 因與Character.AI的聊天機器人建立不當關係而自殺的悲劇之後,這個問題受到了廣泛關注。

Character.AI的應對措施包括:限制18歲以下用戶每天的開放式對話時間為兩小時,並在11月25日前完全禁止未成年人進行涉及浪漫或治療性質的對話。此外,公司還將導入年齡驗證系統,以確保政策的有效執行。這項舉措不僅是為了保護未成年人,也反映了科技公司在AI發展快速的背景下,對倫理和安全問題日益重視的態度。

值得注意的是,其他科技巨頭,如OpenAI和Meta,也在積極探索如何應對AI聊天機器人帶來的風險。OpenAI雖然允許成年用戶進行色情對話,但Microsoft則明確表示不會提供相關服務。美國政府也開始介入,聯邦貿易委員會已向多家公司發出調查令,參議員也提出了禁止未成年人使用AI伴侶的法案。加州也通過了相關法規,要求聊天機器人披露其AI身份,並提醒未成年人適時休息。

Character.AI的CEO Anand表示,公司希望通過這些措施,為整個行業樹立更高的安全標準。同時,公司也正在拓展其業務範圍,增加AI生成影片、故事和角色扮演等功能,以降低對單純聊天功能的依賴。總體而言,這篇報導揭示了AI技術發展與社會責任之間的緊張關係,以及科技公司、政府和社會各界共同應對這一挑戰的努力。

原文網頁:Character.AI to block romantic AI chats for minors a year after teen”s suicide (by Zach Vallese)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *