Atari 2600 brukade vara den gyllene referenspunkten för AI-agenter under min doktorandtid. Ett enda neuralt nätverk som kan spela 50+ Atari-spel skulle anses vara häpnadsväckande. Modellerna hade svårt att mappa 84x84 gråskala pixelerad skärm till några knappar. Sedan höjde OpenAI Five (Dota) och DeepMinds AlphaStar nivån och slog världens främsta mästare inom esport. Ändå överpassar de till en enda virtuell miljö åt gången. Att ändra något skulle förstöra modellen direkt. Människor är oerhört bra på att anpassa sig till helt olika fysik och regler – något som fortfarande undgår våra mest avancerade, biljonskalliga LLM:er. Tänk på de 1000 spelen som 1000 simuleringar. Ju fler virtuella världar en agent kan anpassa sig till, desto bättre utvecklar den förkroppsligat resonemang, perception och motorisk koordination. Alla viktiga delar i det stora pusslet för robotik. Genom att öppna NitroGen-modellen och Gym API för öppen källkod tjänar vi samma mål som AlphaGo, AlphaStar, OpenAI Five och nyligen Google SIMA: inte för att ta bort nöjet i dessa spel, utan för att lyfta fram begränsningarna i modern AI, ge en stabil baslinje och skapa ett nytt riktmärke – "Atari 2.0" – för att mäta framsteg därefter.