o1/o3 waren das echte gpt5 und sie haben hart geliefert, vielleicht ein größerer Sprung als von gpt3 zu 4, RL folgt weiterhin dem Skalierungsgesetz. Das Pretraining skaliert ebenfalls, aber die Inferenz ist mit einem riesigen Modell einfach zu teuer. Ich stimme jedoch zu, dass Open Source gewinnen wird.
Yuchen Jin
Yuchen Jin10. Aug., 12:04
GPT-5 ist zweimal gescheitert. Die Skalierungsgesetze neigen sich dem Ende zu. Open-Source-KI wird das Mandat des Himmels haben.
4,06K