o1/o3 var den virkelige gpt5 og de leverte hardt kanskje større hopp enn gpt3 til 4, RL fortsetter fortsatt å følge skaleringsloven Forhåndstrening skalerer også, men slutning er bare for dyrt med gigantisk modell Enig i at åpen kildekode vil vinne
Yuchen Jin
Yuchen Jin10. aug., 12:04
GPT-5 mislyktes to ganger. Skaleringslovene nærmer seg slutten. Åpen kildekode AI vil ha himmelens mandat.
4,03K