OpenAI首席執行官山姆·奧爾特曼(Sam Altman)周四深夜向員工表示,希望公司能協助緩和競爭對手Anthropic與美國國防部(DoD)之間的對峙。他在一封內部備忘錄中強調,OpenAI始終堅決反對將人工智慧用於大規模監視或自主致命武器,並認為高風險自動化決策必須由人類參與,這也是公司設定的「紅線」。目前Anthropic需在周五下午5:01前決定是否同意讓國防部無限制地使用其AI模型,但Anthropic要求排除自主武器與對美國人進行大規模監視的用途,而國防部未讓步。奧爾特曼的備忘錄意在表明OpenAI與Anthropic在倫理立場上一致,並透露OpenAI員工已透過社交媒體聲援Anthropic,甚至有70名員工簽署公開信表達團結。此外,OpenAI去年與國防部簽署2億美元合約,允許其模型用於非機密用途,而Anthropic則是首家將模型整合至機密網絡作戰流程的AI公司。奧爾特曼表示,OpenAI正與國防部磋商,希望在機密環境中部署模型時能符合其倫理原則,並提出技術防護措施與人員監督,同時要求合約排除非法或不適合雲端部署的用途,如自主攻擊性武器與國內監視。他承認目前尚未做出最終決定,並強調需「做正確的事,而非看起來強硬但虛偽的選擇」,即使短期可能不利於公司形象。
此報導揭示了AI企業在技術應用與政府需求間的倫理拉鋸戰。OpenAI與Anthropic的立場反映業界對AI倫理的共識,但國防部的強硬態度凸顯政府對AI軍事化應用的迫切需求。奧爾特曼的調停試圖平衡企業責任與國家安全,然而若Anthropic拒絕讓步,可能導致AI產業與政府關係緊張,甚至影響技術合作。此事件亦凸顯AI技術的雙刃劍特性,企業需在創新與安全間尋求共識,而政府則需建立更透明的監管框架,以確保技術應用符合社會價值。OpenAI的態度顯示其願意承擔領導角色,但最終結果將取決於各方妥協空間與倫理底線的博弈。
原文網頁:Sam Altman aims to ”de-escalate” DoD tensions as OpenAI employees support Anthropic (by Ashley Capoot)
發佈留言