美國人工智慧公司Anthropic因與國防部(DoD)在技術使用條款上產生分歧,遭美國政府列入黑名單。美國聯邦通訊委員會(FCC)主席布雷ndon Carr在CNBC訪問時表示,Anthropic「可能犯了錯誤」,並指出政府對軍方採購技術有明確的規則。Anthropic曾與國防部就合同條款進行緊張談判,要求確保其技術不被用於全自動武器或對美國人進行大規模監視,但國防部希望軍方能自由使用所有合法用途的模型。談判於上周陷入僵局,Anthropic執行長Dario Amodei表示,公司「無法以良知接受」這些條件。隨後,總統特朗普下令所有政府機構立即停止使用Anthropic技術,國防部長Pete Hegseth更將其標籤為「威脅國家安全的供應鏈風險」,導致任何與國防部合作的承包商不得與Anthropic交易。Carr表示,Anthropic仍有機會修正方向,但公司未把握機會。Anthropic對被列入黑名單表示「遺憾」,認為此舉「在法律上不妥且會為美國公司與政府談判設下危險先例」,並強調支持所有合法的AI國防用途,但排除大規模監視與全自動武器。同日,OpenAI執行長Sam Altman宣布與國防部達成協議,但後續修正條款,明確禁止AI系統用於美國人與國民的國內監視,Altman亦承認先前與國防部的協議「過於急躁」,並稱其「看起來機會主義且粗糙」。此事件凸顯美國政府與AI企業在技術監管、國家安全與商業利益間的角力,亦反映AI倫理與應用範圍的國際爭議。
此報導揭示美國政府對AI技術的嚴格管控與企業自主權之間的矛盾。Anthropic因拒絕讓軍方使用技術於敏感領域而遭制裁,反映政府對AI軍事化應用的擔憂,亦凸顯企業在追求創新與遵守規範間的挑戰。FCC與國防部的立場差異,顯示美國政府部門間對AI政策的分歧。Trump的直接干預與Hegseth的「供應鏈風險」定義,進一步強化政府對技術供應商的控制,可能對其他AI企業形成寒蟬效應。另一方面,OpenAI的協議修正與Altman的反思,反映企業在與政府合作時需更謹慎平衡各方利益。此事件亦凸顯AI倫理框架的迫切性,未來需建立更明確的國際標準,以避免技術被濫用,同時保障企業創新空間。Anthropic的遭遇或成美國AI產業自我審視的契機,亦可能促使政府與企業重新協商技術使用的邊界。
原文網頁:Anthropic made ”mistake” in Pentagon talks, should ”correct course”: FCC boss (by Arjun Kharpal)
發佈留言