AI 聊天機器人監管新政:防情緒操控,憂傷自戕,中國首開先例!

這篇報導主要講述中國即將出台針對擬人化人工智能聊天機器人的新規範。這些規定旨在防止AI影響人類情緒,導致自殺或自殘等負面結果。這不僅是全球首次針對具有人類特徵的AI進行監管的嘗試,也代表中國在AI監管上從內容安全向情感安全的一次重要轉變。

新規範針對的是那些模擬人類性格,並通過文字、圖像、音頻或視頻等方式與用戶進行情感互動的AI服務。具體措施包括要求AI提供商在用戶連續互動兩小時後進行提醒,以及對擁有大量用戶(超過一百萬註冊用戶或十萬月活躍用戶)的聊天機器人進行安全評估。同時,新規範也鼓勵將擬人化AI應用於文化傳播和老年陪伴等正面用途。

值得注意的是,新規範的出台正值兩家中國AI初創公司——Z.ai和Minimax——準備在香港上市之際。Minimax的Talkie AI應用,以及其國內版本星野,擁有超過兩千萬的月活躍用戶,而Z.ai的技術則應用於約八千萬台設備。這些新規範可能會影響它們的上市計劃。

報導也提到,美國的OpenAI也在加強對AI風險的監控,特別是在心理健康方面。甚至有案例顯示,有人與AI建立了戀愛關係,甚至結婚。這表明AI對人類情感的影響日益增強,也凸顯了監管的必要性。中國此舉,也體現了其在全球AI治理方面發揮主導作用的意圖。總體而言,這項新規範反映了對AI潛在風險的日益關注,以及對AI倫理和社會影響的重視。

原文網頁:China to crack down on AI chatbots around suicide, gambling (by Evelyn Cheng)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *