美國國防部於去年8月由技術主管艾米爾·邁克爾(Emil Michael)開始審查人工智慧(AI)合約,其後發現Anthropic公司與國防部的2億美元合約存在風險,最終導致國防部將其技術列入供應鏈風險名單,並禁止其在機密環境中使用。此舉被視為前所未有的決定,因Anthropic曾是國防部認可的AI模型供應商,且其技術被認為在安全性和整合性上優於其他競爭對手。Anthropic隨即對特朗普政府提起訴訟,指控其行為違法並損害公司利益,而國防部的決定也引發專家對政府政策不穩定性的擔憂。
Anthropic由達里奧·阿莫迪(Dario Amodei)於2021年創立,其AI模型Claude因具備強大的審計功能和企業用戶體驗,迅速獲得政府機構青睞,並與Palantir、AWS等企業合作。然而,公司與特朗普政府的關係因Amodei對總統的批評及Anthropic在AI倫理上的立場而惡化,導致國防部最終將其列入風險名單。此舉不僅影響Anthropic的商業前景,也對國防部的運作造成挑戰,因Claude已深度整合於多個機密作戰系統中,轉換技術供應商需耗費大量時間與資源。
此事件凸顯美國政府在AI政策上的政治化傾向,並引發對技術供應商與政府合作關係的質疑。專家認為,國防部的決定可能設下危險先例,使未來技術合作面臨更高政治門檻。此外,Anthropic的遭遇也反映AI企業在追求商業化與維護技術中立性之間的矛盾,其未來能否在政府與市場間取得平衡,將是關鍵挑戰。
此事件揭示美國在AI戰略上的不確定性,以及政治因素對技術合作的干擾。Anthropic的案例可能成為後續AI政策制定的參考,並促使企業更謹慎評估與政府合作的風險與回報。
原文網頁:Anthropic was the Pentagon”s choice for AI. Now it”s banned and experts are worried (by Ashley Capoot)
發佈留言