Łukasz Kaiser(@OpenAI) sa at på en måte føles fortreningen som om den har nådd den øvre delen av S-kurven. Dette betyr imidlertid ikke at oppskalering av fortrening har sluttet å fungere. Faktisk fungerer det helt som forventet, og laboratorier som OpenAI og Google, samt andre, observerer alle at tapet avtar omtrent log-lineært etter hvert som du legger til mer datakraft. Problemet er hvor mye penger du må putte inn for gevinstene du får, og selv om beløpene er enorme, investerer folk fortsatt. I motsetning til dette kan du i «resonnerings»-paradigmet få mye mer markant fremgang for samme kostnad, fordi resonnement fortsatt er i den nedre delen av S-kurven. Så fortreningen har ikke dabbet av. Han sa at vi rett og slett har funnet et nytt paradigme som gir langt mer bemerkelsesverdig fremgang til samme pris.