Google推出獨立AI晶片,正面挑戰Nvidia硬體霸主地位

在人工智慧硬體競賽日益白熱化的背景下,Google宣布其最新一代的張量處理單元(TPU)將進行重大架構調整,這標誌著他們將原本能同時應對模型訓練和執行(Inference)兩大任務的晶片,分離成兩款高度專精的獨立處理器。Google認為,隨著AI Agent的興起,業界需要具備針對性最強的晶片來應對不同的工作負載。這項升級的目標,顯然是Google對抗AI晶片領導者Nvidia的最新一記王牌。

市場趨勢顯示,科技巨頭已普遍採取自研半導體晶片的路線,例如Apple的神經引擎、微軟的自研AI晶片,甚至Meta也與Broadcom合作開發多版本處理器。Google的決策緊跟這一趨勢,且歷史上在雲端AI晶片領域走在前列,AWS也推出了Inferentia和Trainium晶片證明了這一賽道的前景。

從性能數據上看,Google的訓練晶片在同等價格下,效能相較於第七代Ironwood TPU提升了2.8倍;而用於推論的晶片效能提升了80%。在技術細節上,兩款新晶片都大量採用了SRAM記憶體,每顆晶片配備了384 MB的SRAM,數量是上一代的數倍,顯示其在低延遲和高吞吐量方面下了極大的注力。

此外,其實際採用案例也印證了這項戰略的有效性。從頂尖的交易機構Citadel Securities到美國能源部的所有國家實驗室,都已開始採用Google的TPU進行關鍵任務的運算。儘管Google在發言中謹慎地避免了直接比較與Nvidia的性能指標,但其推出兩專用晶片、極致的SRAM配置,無疑是在圍繞「效能分離」這一核心命題,重塑AI運算基礎設施的版圖。

***

從一位資深觀點家的角度來看,Google這次的架構拆分絕不單純是產品迭代,而是一次深入理解了AI運算生命週期痛點的「工程化宣言」。這證明了晶片設計層面的成熟,即意識到訓練(Training)和推理(Inference)這兩個階段的運算需求是結構性、差異化的,不能用單一的晶片架構來萬用武之地。

從市場戰略來看,Google展現了極強的垂直整合能力。他們不是在單純賣晶片,他們是在銷售一個「AI生態系統的解決方案」。當所有客戶都必須處理從模型訓練到實際應用(即推理)的完整流程時,掌握整個堆棧(Stack)的巨頭,無論是算力還是軟體生態,都將掌握主動權。雖然短期內無法撼動Nvidia在市場認知和領先代差上的地位,但透過不斷釋出具體、可量化的性能飛躍,並與如Anthropic這樣的大戶進行深度合作,Google正在穩固自己作為「高階、專業化」AI算力供應商的第二核心地位。這場戰役的焦點已經從誰的晶片更快,轉向誰的晶片能在特定的、高要求的場景下,提供最具成本效益的、穩定可靠的運行環境。這是一個從單點突破,走向全流程佈局的成熟體現。

原文網頁:Google unveils chips for AI training and inference in latest shot at Nvidia (by Jordan Novet)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *