Google與微軟宣布持續提供Anthropic AI技術,排除國防用途,對抗國防部風險標籤及法律挑戰

美國國防部將Anthropic標籤為供應鏈風險後,Google與Microsoft兩大雲端服務商宣布持續提供其AI技術,但排除國防用途。Google發言人強調,其平台仍可提供非國防相關的Anthropic產品,而Microsoft亦表示經法律審查後,確認Claude模型可繼續供非國防客戶使用。Amazon尚未對此發表意見,但作為雲端市場領導者,其立場可能影響後續產業動向。Anthropic與Google合作密切,不僅透過Vertex AI平台提供Claude模型,Google更在2025年追加10億美元投資,累計持股達30億美元,並取得Google自製TPU的使用權。然而,Anthropic拒絕國防部的使用條款後,Trump下令聯邦機構停止採用其技術,國防部亦宣布六個月內逐步終止合作。CNBC揭露美國近期對伊朗的攻擊行動曾使用Anthropic模型,凸顯其技術在軍事領域的應用與風險。部分國防企業已要求員工轉用OpenAI等替代方案,顯示產業界對供應鏈安全的擔憂。Microsoft成為首家明確表態持續合作的企業,Anthropic執行長則誓言對國防部的風險標籤提出司法挑戰。此事件反映AI技術在軍事與商業應用間的倫理與安全爭議,亦凸顯美國政府與科技企業在國防合作上的緊張關係,未來可能引發更廣泛的法律與產業規範討論。

此報導揭示AI技術在國防與商業應用間的矛盾與風險。Anthropic作為AI新興力量,其技術被軍方廣泛採用,但因供應鏈安全疑慮遭美國政府限制,反映科技企業在國防合作中的複雜角色。Google與Microsoft的立場顯示,企業在遵守政府政策與維護商業利益間的權衡,而Amazon的沉默則可能暗示其策略尚未明確。Anthropic與Google的深度合作,包括資金與硬體資源的投入,凸顯其技術的戰略價值,但國防部的限制亦可能影響其商業擴張。Trump的行政命令與國防部的逐步終止合作,顯示美國政府對AI供應鏈風險的嚴格管控,尤其在涉及國安的軍事行動中,技術來源的透明度與可控性成為關鍵。Anthropic的司法挑戰將影響未來類似案件的法律框架,而企業與政府的博弈亦可能重塑AI產業的規範與合作模式。此事件不僅影響Anthropic的發展,亦對全球AI技術的軍事化應用與供應鏈安全政策產生深遠影響。

原文網頁:Google joins Microsoft in telling users Anthropic is still available outside defense (by Jennifer Elias)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *