跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
科技前線

擺脫 Nvidia 依賴:Google 發布第八代 TPU 自研晶片

Jason
Jason
· 2 分鐘閱讀
更新於 2026年4月22日
A futuristic data center aisle with glowing lights emanating from sleek server racks, with a subtle

自研晶片戰略的關鍵一步

隨著人工智慧競賽進入算力軍備競賽的新階段,各大雲端巨頭無不面臨電力與硬體運算的雙重制約。目前大多數人工智慧研發實驗室高度依賴 Nvidia 的圖形處理器(GPU)進行模型訓練。然而,Google 採取了完全不同的路徑。週二晚間,在拉斯維加斯舉行的一場私人聚會中,Google 預覽了其第八代 Tensor Processing Units(TPU)。

這款全新自研晶片旨在提供一條通往自我完善的 AI 模型訓練基礎設施之路,從而擺脫對 Nvidia 昂貴運算資源的依賴。這不僅是技術上的迭代,更是 Google 在晶片領域長期深耕的戰略成果。

為什麼 Google 不需要支付「Nvidia 稅」?

業界普遍稱支付給 Nvidia 的高昂費用為「Nvidia 稅」。隨著 AI 模型規模的指數級增長,這筆費用成為了各家科技巨頭沉重的經營負擔。Google 透過長期投資自研晶片,已成功將這部分負擔最小化。第八代 TPU 專為 AI 訓練任務進行了深度最佳化,其設計邏輯與通用型 GPU 不同,更側重於矩陣運算效率與大規模並行處理能力。

根據 VentureBeat 的報導,Google 的這項舉措被視為在雲端基礎設施市場中建立護城河的核心舉措。通過完全控制硬體堆疊,Google 能根據其最新的 Gemini 模型需求進行客製化硬體配置,這是單純購買外部 GPU 無法實現的優勢。

自研晶片的技術優勢與未來

Google 第八代 TPU 的兩款自研矽晶片預計將於今年稍晚開始出貨。儘管細節尚未完全公開,但市場預測,這將會顯著降低 Google 內部訓練大型語言模型(LLM)的成本,並提升其雲端客戶的服務效能。

目前人工智慧算力的供應鏈極度緊張。Google 的這一策略不僅僅是為了省錢,更是為了確保在 Nvidia 硬體供不應求的情況下,Google 能擁有穩定的算力供應來源。這對於維持其在人工智慧研究領域的領先地位至關重要。

結論與產業觀察

隨著 Google 第八代 TPU 的推進,人工智慧硬體市場的競爭將進一步白熱化。這不僅向市場展示了自研晶片的可能性,也對 Nvidia 的市場份額構成了一定的壓力。未來,我們預計會有更多科技公司嘗試透過自研矽晶片來優化自身的 AI 運作成本。

常見問題

Google 為什麼要開發自己的 TPU?

開發 TPU 是為了減少對外部晶片供應商(主要是 Nvidia)的依賴,降低龐大的訓練成本,並透過客製化晶片架構提升模型訓練效率。

第八代 TPU 與傳統 GPU 有何不同?

TPU 是專為深度學習工作負載(特別是張量運算)設計的晶片,而 GPU 是通用型圖形處理單元。TPU 在大規模並行訓練任務中通常能提供更高的能效比。

這對 Nvidia 的業務有什麼影響?

長期而言,Google 此舉可能加劇雲端服務提供商與硬體供應商之間的博弈,促使其他巨頭加大自研晶片投入,可能對 Nvidia 的高利潤模型造成競爭壓力。