迎向「代理式 AI」時代的硬體更新
Google 在近期舉辦的技術預覽會上,公開了其第八代 Tensor Processing Units (TPU) 的設計細節,宣告公司正式進入「代理式 AI」(Agentic Era)。這兩款新型客製化矽晶片分別針對 inference (推理) 與 training (訓練) 場景進行了優化,旨在為複雜的代理系統提供強大的算力支援。此舉被視為 Google 試圖在 AI 硬體算力爭霸中,進一步減少對 Nvidia 等外部供應商的依賴。
脫離「Nvidia 稅」的策略
在目前全球 AI 實驗室都在嚴格配給算力的環境下,Google 透過長期投資自研晶片,展現了其垂直整合的優勢。透過大規模佈署自有的 TPU,Google 有效降低了單位算力成本,實現了所謂不需繳交「Nvidia 稅」的獲利彈性。這些新款 TPU 的推出,將進一步巩固 Google 在大型語言模型基礎設施上的成本與性能優勢。
離線與私有部署的新選擇
除了算力上的提升,Google Cloud 同時發布了具備高度安全性的解決方案。例如,Cirrascale Cloud Services 宣佈透過 Google Distributed Cloud,首次將 Gemini 模型以離線、私有設備的形式帶入受監管的企業環境中。這意味著即使在斷網的隔離伺服器上,企業也能執行最先進的 Gemini 模型,並在拔掉連線後確保資料完全不會外洩。這對於金融、醫療等極度重視隱私的領域來說,是一項重大技術突破。
市場意義與未來展望
Google 透過強化底層硬體與提供靈活的離線部署方案,正試圖在 AI 代理市場中建立獨特的生態壁壘。這種組合策略不僅滿足了大規模 AI 模型對高效算力的需求,也解決了企業在使用 frontier 模型時對於資料機密性的深層焦慮。未來隨著越來越多的企業導入代理式 AI,Google 的 TPU 生態系與分散式雲端架構,將成為其與競爭對手拉開差距的重要槓桿。
