谷歌是最不缺算力的公司,他比英伟达还不缺。 甚至英伟达 GPU 极有可能就是跟着 TPU 走的(圈内半透明的共识了) 1️⃣ 张量核心(Tensor Core) NVIDIA 在 Volta 之后全面引入,本质是向 TPU 的矩阵乘法专用化靠拢 2️⃣ 低精度计算(FP16 / BF16 / INT8) TPU 很早就为推理优化低精度,GPU 是后来被模型需求“逼着”支持 3️⃣ 大规模集群 + 编译器协同 TPU 是“硬件 × 编译器 × 调度”的整体,而 NVIDIA 才开始认真做 Triton / CUDA Graph / NVLink 级别协同 英伟达靠芯片算力赚钱,而 Google 靠长年稳固的生态,广告、搜索引擎、YouTube 、浏览器、Android 等等网络现象供血,算力仅仅是其成本,不是消耗利润。 TPU 一直是 Google 全力自研的,可以允许足够长时间的研究和推翻。 Jeff Dean 对 TPU 的理解是,如果模型是你定义的,那么硬件也应该是你定义的,所以 TPU 是从编译器(XLA)、计算图(TensorFlow)、数据中心拓扑、调度系统的一整套系统工程 风险层面讲,由于英伟达是卖 GPU,必须服务于所有客户,容错率极低。 该买哪个美股,又清晰了吧