Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Philip Clark (@PJClark), partener la Thrive Capital (@ThriveCapital), se bazează pe investițiile în OpenAI, Cursor, Physical Intelligence și experiența sa în semiconductori pentru a prezenta 3 concluzii majore despre stadiul dezvoltării AI:
1.) Descoperirile AI nu sunt liniare. Vin în valuri arhitecturale, la fel ca siliciul.
Analogia lui Philip cu semiconductorii reformulează progresul AI ca o succesiune de schimbări de paradigmă asemănătoare hardware-ului.
Când o cale atinge limita (single-core → multi-core; pre-antrenament → post-antrenament), apare o nouă arhitectură. AI-ul nu evoluează prin reglaje incrementale... Avansează prin reinventări structurale.
2.) Învățarea prin întărire este următoarea eră arhitecturală (deocamdată)
Philip prezintă învățarea prin întărire ca pe succesorul post-antrenamentului: o fundație nouă, nu o optimizare. Dar, cel mai important, subliniază că nu va fi ultimul.
Așa cum hardware-ul a continuat să sară de la single-core la multi-core și apoi la GPU-uri, AI va experimenta mai multe valuri de paradigmă, fiecare deblocând noi plafone de performanță. Învățarea prin întărire este pur și simplu următorul val, nu ultimul.
3.) Șanțul lui OpenAI nu este modelul... este capacitatea sa de a descoperi mereu următorul paradigm.
Philip susține că avantajul principal este în amonte față de produs: fiecare descoperire arhitecturală majoră în modelele mari a provenit de la OpenAI.
Apărabilitatea lor provine din inventarea repetată a "următorului lucru" în timp ce operaționalizează în același timp precedentul... o combinație rară în orice industrie, ca să nu mai vorbim de una definită de salturi discontinue.
. . .
Molly: "Unul dintre sponsorii care sponsorizează cu mândrie Sourcery este @turingcom, așa că am avut contact cu partea de cercetare AI — un accelerator de cercetare AI [am intervievat CEO-ul, @jonsidd]. Ei ajută cu modelele. Iar în acest moment, observă o schimbare severă în ultimul trimestru sau doi, de la date false și date sintetice la învățarea prin întărire.
Așa că sunt curios cum vezi asta pe partea tehnică și apoi și pe partea de aplicare?"
Philip: "Cred că AI seamănă puțin cu semiconductorii într-un fel — dacă mi se permite să mă întorc la semiconductori, marea piatră de referință. În sensul că există multe, multe valuri pe măsură ce încercăm să obținem performanțe tot mai bune.
Știi, la semiconductori, obișnuiam să avem semiconductori cu un singur nucleu. Apoi practic nu am mai putut extrage nimic dintr-un singur nucleu, așa că am trecut la multi-core. Apoi am trecut la GPU-uri. Și cred că vedem ceva foarte similar cu AI, adică am început cu pre-antrenamentul în era GPT-1, GPT-2, GPT-3. Asta ne-a dus la GPT-4.
Apoi am început să folosim multe tehnici post-antrenament pentru ChatGPT—fine-tuning-ul supravegheat, învățare prin întărire cu feedback uman. Aceasta a permis modelelor să fie mai puțin inteligențe extraterestre și mai mult asistente de ajutor. Și acum, pe măsură ce multe dintre fructele ușor de obținut din aceste câștiguri au fost eliminate (deși probabil mai este mult de făcut), învățarea prin întărire a fost următoarea mare schimbare de paradigmă în AI și unde se duc multe dintre resurse....
Limită superioară
Clasament
Favorite

