美國人工智慧公司Anthropic的Claude模型於週一出現「錯誤率升高」問題,但應用程式仍穩居Apple App Store最受歡迎的免費應用程式。Claude的狀態網站顯示,其最新模型Opus 4.6存在「性能退化」,並於當日10:49 ET表示已識別問題並正在修復,10:47 ET則宣佈解決了Claude.ai、控制台和Claude Code的問題。CNBC已聯繫Anthropic尋求進一步評論。
此事件發生在Anthropic與美國國防部的爭議背景下。該公司7月與國防部簽署2億美元合約,但隨後因限制AI技術用於自主武器或大規模監視美國公民而與國防部產生矛盾。國防部要求無條件使用該平台,總統特朗普更於週五下令所有政府機構立即停止使用Anthropic技術,國防部長海格塞斯隨後將其標籤為「國家安全供應鏈風險」。OpenAI則在政府斷絕與Anthropic關係後迅速與國防部達成協議。
此報導揭示Anthropic在技術與政治雙重壓力下的處境:一方面,其AI模型的穩定性受質疑,可能影響用戶信任;另一方面,與政府的衝突使其陷入監管與商業利益的兩難。儘管技術問題已解決,但特朗普的禁令與OpenAI的介入,可能加速Anthropic在政府市場的邊緣化,並凸顯AI產業中企業與政府之間的權力博弈。此外,Claude仍保持高人氣,反映市場對競爭對手(如OpenAI)的不信任,或用戶對Anthropic技術的依賴。此事件亦顯示,AI技術的發展不僅需應對技術挑戰,更需處理複雜的政策與地緣政治風險。
報導凸顯AI產業的兩大趨勢:一是技術可靠性與用戶信任的關聯性;二是政府對AI技術的監管趨嚴,可能重塑產業格局。Anthropic的案例或成未來AI企業需面對的典範。
原文網頁:Claude sees ”elevated errors” as it tops Apple”s free apps after Pentagon clash (by Lola Murti)
發佈留言