Meta於週三宣布推出四款專為人工智慧任務設計的自研晶片,作為其數據中心擴張計劃的一部分。這些晶片屬於「Meta Training and Inference Accelerator(MTIA)」系列,其中首款MTIA 300已於數週前部署,用於訓練支持Meta核心推薦系統的中小型AI模型,例如Facebook和Instagram的內容推薦與廣告投放。後續的MTIA 400、450和500則專注於生成式AI的推理任務,如根據文字提示生成圖片與影片,但不涉及大型語言模型的訓練。Meta預計MTIA 400將於近期部署,而其他兩款晶片則於2027年投入使用。
Meta副總裁Yee Jiun Song強調,自研晶片能提升數據中心的效能與成本效益,並透過多樣化的供應鏈降低對第三方供應商的依賴。此外,Meta正積極擴建美國路易斯安那州、俄亥俄州和印第安納州的數據中心,並考慮租用德克薩斯州的Stargate場地。與Google和Amazon等競爭對手類似,Meta亦在開發專用晶片(ASIC),以替代昂貴且供應緊縮的NVIDIA和AMD GPU。然而,Meta的MTIA晶片僅供內部使用,與Google和Amazon將AI晶片整合至雲端平台的策略不同。
值得注意的是,Meta的晶片製造由台積電(TSMC)負責,且預計將於亞利桑那州的晶圓廠生產。然而,Meta未明確說明是否在當地製造。此外,高頻寬記憶體(HBM)短缺可能影響其晶片路線圖的推進,但Meta表示已透過多樣化的供應鏈策略確保關鍵資源。
此舉反映Meta在AI領域的強烈投入,並透過自研晶片與數據中心擴張,鞏固其在生成式AI和大規模資料處理的競爭優勢。
—
Meta的自研晶片策略體現了科技巨頭在AI領域的競爭態勢。透過專用晶片(ASIC)與數據中心擴張,Meta不僅能控制成本與供應鏈,亦能加速AI模型的訓練與推理效率。與Google、Amazon等企業類似,Meta的目標在於降低對NVIDIA和AMD GPU的依賴,並透過垂直整合提升技術自主性。然而,Meta的晶片僅供內部使用,與Google和Amazon將ASIC整合至雲端平台的商業模式形成對比,顯示其策略更傾向於強化自身生態系統。
另一方面,HBM短缺與晶片製造的供應鏈風險,仍是Meta未來擴張的潛在挑戰。儘管Meta強調已透過多樣化策略降低風險,但若HBM供應持續緊縮,可能影響其AI晶片的性能與部署速度。此外,Meta在美國設立數據中心與研發團隊,亦反映其對美國科技產業的長期投資,並可能影響全球AI晶片製造與供應的格局。此舉不僅是技術戰略,亦是對全球供應鏈與地緣政治的深層布局。
原文網頁:Meta rolls out in-house AI chips weeks after massive Nvidia, AMD deals (by Katie Tarasov)
發佈留言