o1/o3 erano i veri gpt5 e hanno davvero consegnato, forse un salto più grande rispetto a gpt3 a 4, RL continua a seguire la legge di scaling. Il pretraining scala anche, ma l'inferenza è semplicemente troppo costosa con un modello gigante. Sono d'accordo però che l'open source vincerà.
Yuchen Jin
Yuchen Jin10 ago, 12:04
GPT-5 ha fallito due volte. Le leggi di scalabilità stanno giungendo al termine. L'IA open-source avrà il Mandato del Cielo.
4,15K