De Godfather van AI die zegt dat de pre-trainingswinsten de datalimieten bereiken, versterkt een punt dat ik al een tijdje maak, namelijk dat de economische zwaartekracht van AI verschuift van het trainen van modellen naar het uitvoeren ervan op grote schaal via inferentie. Dat is precies waarom $NVDA zich op Groq heeft gericht om ervoor te zorgen dat de toekomst van real-time, low-latency inferentie nog steeds via het platform van Nvidia loopt.