O Google é a empresa que não está com falta de poder computacional, e ele não está faltando mais do que a Nvidia. Mesmo GPUs NVIDIA têm muita probabilidade de seguir TPU (o consenso translúcido no círculo) 1️⃣ Núcleo Tensorial A introdução completa da NVIDIA após o Volta está basicamente se aproximando da especialização em multiplicação matricial das TPUs 2️⃣ Cálculo de baixa precisão (FP16 / BF16 / INT8) TPU otimizada para baixa precisão para inferência no início, e a GPU foi posteriormente "forçada" a suportar por requisitos do modelo 3️⃣ Cluster massivo + colaboração com compiladores TPU é todo o "hardware × compilador × agendamento", e a NVIDIA só começou a fazer uma colaboração séria em nível Triton/CUDA Graph/NVLink A Nvidia lucra com o poder de processamento dos chips, enquanto o Google depende de um ecossistema estável por muitos anos, publicidade, mecanismos de busca, YouTube, navegadores, Android e outros fenômenos de rede para fornecer sangue, e o poder de computação é apenas seu custo, não um consumo de lucros. A TPU sempre foi a pesquisa completa do Google que permite pesquisas longas e revogadas. A compreensão de Jeff Dean sobre TPU é que, se o modelo é definido por você, então o hardware também deve ser definido por você, então TPU é um conjunto completo de engenharia de sistemas a partir do compilador (XLA), grafo computacional (TensorFlow), topologia de data center, sistema de escalonamento Em termos de risco, como a NVIDIA vende GPUs, ela deve atender todos os clientes, e a taxa de tolerância a falhas é extremamente baixa. Qual ação dos EUA comprar está claro novamente