La adquisición de Groq por parte de Nvidia por $20B es un gran acontecimiento. Los chips de Groq son increíblemente rápidos en inferencia, a veces 10 veces más que las GPU. El truco es poner los pesos del modelo en SRAM en lugar de HBM para intercambiar capacidad de memoria por velocidad. Su $/token puede perder frente a las GPU, pero para la inferencia de larga espera en modelos como GPT-5.2 Pro, la velocidad importa. Si yo fuera Sam Altman, lo compraría. $20B es barato. Jensen tomó la decisión correcta.
Vaya, así que básicamente es una adquisición por talento. Nvidia acaba de contratar a los cofundadores de Groq, incluido Jonathan, el co-creador de los TPUs de Google. Similar a los acuerdos de Meta <-> Scale AI (Alexander Wang) y Google <-> Windsurf.
103