OpenAI 執行長 Sam Altman 近日在接受 Tucker Carlson 訪談時,坦承了對人工智慧發展所帶來的道德與倫理挑戰的深切擔憂。他表示,比起大型的道德抉擇,他更失眠於那些看似微小的模型行為決定,因為這些決定可能產生巨大的影響。
訪談中,Altman 特別提及了 ChatGPT 在處理自殺議題上的困境。近期一宗青少年因使用 ChatGPT 尋求自殺方法而身亡的案件,引發了 OpenAI 的深刻反思。Altman 坦言,許多自殺者可能在行動前曾與 ChatGPT 互動,而 OpenAI 或許未能提供足夠的協助與建議。OpenAI 已經開始著手改善在處理敏感議題時的不足,並承諾持續優化技術,保護脆弱的使用者。
除了自殺議題,Altman 也討論了 ChatGPT 的道德框架建立過程。他表示,ChatGPT 的基礎模型是基於人類的集體知識訓練而成,但 OpenAI 必須進一步調整模型的行為,並決定哪些問題不應回答。公司諮詢了數百位倫理學家,以制定相關規範,例如避免回答關於製造生物武器的問題。同時,Altman 強調了使用者隱私的重要性,並積極推動「AI 特權」政策,希望確保使用者與 AI 的對話內容能受到保密保護,如同與醫生或律師的諮詢一樣。
儘管 Altman 對 AI 的潛力抱持樂觀態度,認為 AI 將提升整體人類的能力,但他同時也承認 AI 短期內可能導致許多工作崗位消失。他對 AI 權力集中也曾感到擔憂,但現在認為 AI 將帶來更廣泛的能力提升。然而,AI 在軍事上的應用,特別是可能被用於傷害人類的可能性,仍然讓他感到不安。
我認為這份報告揭示了 AI 發展背後複雜的倫理困境。Altman 的坦誠,顯示了 OpenAI 對於自身產品可能造成的負面影響的警惕。他所強調的「小決定」的重要性,提醒我們,AI 的道德規範建立並非一蹴可幾,需要持續的審視與調整。同時,使用者隱私與 AI 在軍事上的應用,也都是未來需要密切關注的重要議題。
原文網頁:Why is Sam Altman losing sleep? Open AI CEO addresses controversies in interview (by Dylan Butts)
發佈留言