At Nvidia kjøper Groq for 20 milliarder dollar er en stor sak. Groq-brikker er sinnssykt raske på slutning, noen ganger 10x GPU-er. Trikset er å legge modellvekter i SRAM i stedet for HBM for å bytte minnekapasitet mot hastighet. Dens $/token kan tape mot GPU-er, men for lang ventetid på modeller som GPT-5.2 Pro betyr hastighet noe. Hvis jeg var Sam Altman, ville jeg kjøpt den. 20 milliarder dollar er billig. Jensen tok det riktige valget.
Wow, så det er i bunn og grunn en acqui-hire. Nvidia har nettopp hentet inn Groqs medgründere, inkludert Jonathan, medskaperen av Google TPU-ene. Ligner på Meta <-> Scale AI (Alexander Wang) og Google <-> Windsurf-tilbudene.
113