谷歌是最不缺算力的公司,他比英偉達還不缺。 甚至英偉達 GPU 極有可能就是跟著 TPU 走的(圈內半透明的共識了) 1️⃣ 張量核心(Tensor Core) NVIDIA 在 Volta 之後全面引入,本質是向 TPU 的矩陣乘法專用化靠攏 2️⃣ 低精度計算(FP16 / BF16 / INT8) TPU 很早就為推理優化低精度,GPU 是後來被模型需求“逼著”支持 3️⃣ 大規模集群 + 編譯器協同 TPU 是“硬件 × 編譯器 × 調度”的整體,而 NVIDIA 才開始認真做 Triton / CUDA Graph / NVLink 級別協同 英偉達靠芯片算力賺錢,而 Google 靠長年穩固的生態,廣告、搜索引擎、YouTube 、瀏覽器、Android 等等網絡現象供血,算力僅僅是其成本,不是消耗利潤。 TPU 一直是 Google 全力自研的,可以允許足夠長時間的研究和推翻。 Jeff Dean 對 TPU 的理解是,如果模型是你定義的,那麼硬件也應該是你定義的,所以 TPU 是從編譯器(XLA)、計算圖(TensorFlow)、數據中心拓撲、調度系統的一整套系統工程 風險層面講,由於英偉達是賣 GPU,必須服務於所有客戶,容錯率極低。 該買哪個美股,又清晰了吧