Instagram宣布將於美國、英國、澳洲及加拿大推出新功能,當青少年反覆搜索自殺或自殘相關詞彙時,會向家長發送警報。此舉是Meta在面對多項法律訴訟及公眾批評的背景下推出的措施,旨在協助家長及時介入並提供資源支持青少年。然而,Meta強調此功能僅為初步方案,未來將根據反饋調整警報閾值,並可能擴展至AI相關對話的監測。此舉被專家視為社交媒體產業的「大菸草時代」,因法院正審議這些平台是否對青少年心理健康造成損害,並涉嫌隱瞞產品危害。
Meta同時面臨加密技術可能阻礙揭露兒童色情內容的爭議,以及與年齡驗證政策的法律糾紛。美國聯邦貿易委員會(FTC)暫緩執行COPPA法規對部分數據收集行為的處罰,顯示監管機構對年齡驗證技術的審慎態度。此外,美國國家家長教師協會(NPTA)因Meta在兒童數位安全的法律爭議,決定終止與其的資金合作。Meta首席執行官扎克伯格在加州審判中重申,應由手機作業系統供應商(如蘋果、Google)負責年齡驗證,而非應用程式開發者。
此舉反映Meta在法律壓力下試圖改善青少年心理健康保護措施,但其AI技術(如Avocado模型)可能引發新的倫理爭議,例如AI聊天機器人是否會誤導用戶。整體而言,Meta的警報功能雖具積極意義,但其有效性仍需觀察,且無法完全解決平台設計對青少年心理健康的長期影響。社交媒體產業正面臨前所未有的監管壓力,類似「大菸草」的法律戰役可能重塑其營運模式與社會責任。
原文網頁:Instagram to start parent alerts for teen suicide, self-harm searches (by Jonathan Vanian)
發佈留言