Google es la empresa que menos carece de potencia de cálculo, incluso más que NVIDIA. Incluso es muy probable que las GPU de NVIDIA sigan el camino de las TPU (es un consenso semi-transparente en el sector). 1️⃣ Núcleo de tensor (Tensor Core) NVIDIA lo introdujo de manera integral después de Volta, y en esencia se está acercando a la especialización de multiplicación de matrices de las TPU. 2️⃣ Cálculo de baja precisión (FP16 / BF16 / INT8) Las TPU optimizaron la baja precisión para la inferencia desde muy temprano, mientras que las GPU fueron "forzadas" a soportarlo más tarde por la demanda de los modelos. 3️⃣ Clústeres a gran escala + colaboración del compilador Las TPU son un conjunto integral de "hardware × compilador × programación", mientras que NVIDIA apenas está comenzando a trabajar seriamente en la colaboración a nivel de Triton / CUDA Graph / NVLink. NVIDIA gana dinero con la potencia de cálculo de sus chips, mientras que Google se sostiene gracias a un ecosistema sólido a lo largo de los años, con publicidad, motores de búsqueda, YouTube, navegadores, Android, etc., donde la potencia de cálculo es solo un costo, no un consumo de beneficios. Las TPU han sido desarrolladas completamente por Google, lo que permite un tiempo de investigación y revisión suficientemente largo. La comprensión de Jeff Dean sobre las TPU es que, si el modelo es definido por ti, entonces el hardware también debería ser definido por ti, por lo que las TPU son un sistema de ingeniería completo que incluye el compilador (XLA), el gráfico de cálculo (TensorFlow), la topología del centro de datos y el sistema de programación. En términos de riesgo, dado que NVIDIA vende GPU, debe servir a todos los clientes, lo que implica una tasa de tolerancia al error muy baja. ¿Ya está claro qué acciones de EE. UU. comprar?