Google est l'entreprise qui manque le moins de puissance de calcul, elle en a même plus qu'NVIDIA. Il est même très probable que les GPU d'NVIDIA suivent le chemin des TPU (c'est un consensus semi-transparent dans le milieu). 1️⃣ Cœurs Tensor (Tensor Core) NVIDIA a entièrement intégré cela après Volta, c'est essentiellement une spécialisation vers la multiplication de matrices des TPU. 2️⃣ Calcul à faible précision (FP16 / BF16 / INT8) Les TPU ont optimisé la faible précision pour l'inférence depuis longtemps, tandis que les GPU ont été « contraints » de le supporter par les exigences des modèles. 3️⃣ Grands clusters + collaboration avec le compilateur Les TPU représentent un ensemble « matériel × compilateur × planification », tandis qu'NVIDIA commence à peine à travailler sérieusement sur la collaboration au niveau de Triton / CUDA Graph / NVLink. NVIDIA gagne de l'argent grâce à la puissance de calcul de ses puces, tandis que Google s'appuie sur un écosystème stable depuis des années, avec des phénomènes en ligne comme la publicité, le moteur de recherche, YouTube, le navigateur, Android, etc., la puissance de calcul n'est qu'un coût pour eux, pas une consommation de profit. Les TPU ont toujours été développés en interne par Google, ce qui permet des recherches et des révisions sur une période suffisamment longue. La compréhension de Jeff Dean des TPU est que si le modèle est défini par vous, alors le matériel devrait également être défini par vous, donc les TPU sont un ensemble d'ingénierie système comprenant le compilateur (XLA), le graphe de calcul (TensorFlow), la topologie des centres de données et le système de planification. En termes de risque, étant donné qu'NVIDIA vend des GPU, elle doit servir tous ses clients, ce qui laisse peu de marge d'erreur. Il est maintenant clair quel titre américain acheter.