美國社會日益孤獨,越來越多民眾轉向人工智慧聊天機器人尋求情感支持,引發心理健康專家的擔憂。美國心理學會臨床心理學家Leanna Fortunato指出,AI在治療與情感陪伴領域的應用日益普遍,研究顯示逾10%的美國成年人每日使用生成式AI,其中87.1%用於個人諮詢與情感支持。TikTok上「Therapy AI Bot」相關貼文達1150萬條,反映民眾對AI心理輔導的興趣與專家對潛在風險的警告。
儘管科技公司投入巨資改善AI工具,但歷史數據顯示,AI在處理嚴重健康危機時存在缺陷,例如《紐約時報》報導ChatGPT對話中曾出現近50起心理健康危機事件,包括3起死亡案例。OpenAI等公司雖與心理健康專家合作改進AI回應,但研究指出頻繁使用AI可能削弱現實社交技能,並與孤獨感增加相關。
心理學家Esin Pinarli與Fortunato均強調,AI應作為輔助工具而非替代專業治療,建議民眾避免依賴AI進行診斷或危機處理,尤其在自殺念頭等緊急情況下應立即聯繫專線(如美國988心理危機熱線)。專家亦提醒,AI可能提供不正確資訊或支持不健康行為,例如誤導用戶在人際衝突中歸咎他人。此外,分享醫療記錄或個人資訊予AI存在保密風險,因對話不受法律保護。
總體而言,AI在心理健康領域的應用具有雙面性:一方面可提升資訊可及性,另一方面卻可能因技術缺陷、倫理問題與對人際關係的影響而帶來風險。專家呼籲使用者謹慎辨別AI功能,並在必要時尋求專業協助,強調人類互動在心理健康支持中的不可替代性。
原文網頁:When to talk to AI chatbots about mental health—and when to stay far away (by Renée Onque)
發佈留言