Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Stavební @EurekaLabsAI. Dříve ředitel AI @ Tesla, zakládající tým @ OpenAI, CS231n/PhD @ Stanford. Rád trénuji velké hluboké neuronové sítě.
Je mi potěšením přijít na Dwarkesh minulý týden, myslím, že otázky a konverzace byly opravdu dobré.
Znovu jsem se teď díval na modul. Za prvé, ano, vím a je mi líto, že mluvím tak rychle :). Je to k mé škodě, protože někdy moje mluvní vlákno předčí mé myšlenkové vlákno, takže si myslím, že jsem kvůli tomu zpackal několik vysvětlení, a někdy jsem byl také nervózní, že zacházím příliš do tangenty nebo příliš hluboko do něčeho relativně falešného. Každopádně pár poznámek/ukazatelů:
časové osy AGI. Moje komentáře k časovým osám AGI se zdají být nejtrendovější částí rané reakce. Toto je "desetiletí agentů" je odkaz na tento dřívější tweet V podstatě jsou mé časové osy AI asi 5-10x pesimistické ve srovnání s tím, co najdete na domácí párty ve vašem sousedství SF AI nebo na časové ose vašeho Twitteru, ale stále docela optimistické ve srovnání s rostoucí vlnou popíračů a skeptiků AI. Zdánlivý rozpor není: imo jsme současně 1) viděli obrovský pokrok v posledních letech s LLM, zatímco 2) stále zbývá spousta práce (grunt práce, integrační práce, senzory a aktuátory do fyzického světa, společenská práce, bezpečnost a zabezpečení práce (útěky z vězení, otravy atd.)) a také výzkum, který je třeba udělat, než budeme mít entitu, kterou byste raději najali před osobou pro libovolnou práci v svět. Myslím si, že celkově by 10 let mělo být pro AGI velmi býčí časová osa, jen v kontrastu se současným humbukem to tak nevypadá.
Zvířata vs duchové. Můj dřívější zápis o Suttonově podcastu. Mám podezření, že existuje jediný jednoduchý algoritmus, který můžete vypustit do světa a který se vše naučí od nuly. Pokud někdo něco takového postaví, budu se mýlit a bude to ten nejneuvěřitelnější průlom v AI. Podle mého názoru zvířata nejsou vůbec příkladem toho - jsou evolucí obdařena tunou inteligence a učení, které dělají, je celkově zcela minimální (příklad: Zebra při narození). Nasadíme si inženýrské klobouky a nebudeme znovu dělat evoluci. Ale s LLM jsme narazili na alternativní přístup k "předbalení" tuny inteligence do neuronové sítě - ne evolucí, ale předpovídáním dalšího tokenu přes internet. Tento přístup vede k jinému druhu entity v oblasti inteligence. Na rozdíl od zvířat, spíše jako duchové nebo duchové. Ale můžeme (a měli bychom) je časem udělat více zvířecí a v některých ohledech je to to, o čem je spousta hraniční práce.
Na RL. RL jsem již několikrát kritizoval, např. . Za prvé, "vysává dohled brčkem", takže si myslím, že signál/flop je velmi špatný. RL je také velmi hlučný, protože dokončení může obsahovat spoustu chyb, které by vás mohly povzbudit (pokud náhodou narazíte na správnou odpověď), a naopak brilantní tokeny vhledu, které by vás mohly odradit (pokud to později pokazíte). Procesní supervize a LLM soudci mají také problémy. Myslím, že uvidíme alternativní paradigmata učení. Jsem dlouhá "agentická interakce", ale krátká "zpětnovazební učení". V poslední době jsem viděl řadu článků, které podle mého názoru štěkají na správný strom v duchu toho, co jsem nazval "systémové promptní učení", ale myslím, že je také mezera mezi nápady na arxiv a skutečnou, v měřítku implementací v hraniční laboratoři LLM, která funguje obecným způsobem. Celkově jsem docela optimistický, že v této dimenzi zbývající práce uvidíme poměrně brzy dobrý pokrok a např. dokonce bych řekl, že paměť ChatGPT a tak dále jsou primordiálně nasazené příklady nových paradigmat učení.
Kognitivní jádro. Můj dřívější příspěvek o "kognitivním jádru": , myšlenka ořezávání LLM, ztěžování zapamatování nebo aktivní odstraňování paměti, aby se zlepšili v generalizaci. Jinak se příliš opírají o to, co si zapamatovali. Lidé si nemohou tak snadno zapamatovat, což nyní v kontrastu s tím vypadá spíše jako funkce než jako chyba. Možná je neschopnost zapamatovat si jakousi regularizací. Také můj příspěvek z doby před chvílí o tom, jak je trend ve velikosti modelů "zpětný" a proč "modely se musí nejprve zvětšit, než se mohou zmenšit"
Cestování časem do Yann LeCun 1989. Toto je příspěvek, který jsem udělal velmi uspěchanou / špatnou práci popsat na podu: . V podstatě - o kolik byste mohli zlepšit výsledky Yanna LeCuna se znalostí 33 let algoritmického pokroku? Jak omezené byly výsledky jednotlivých algoritmů, dat a výpočtů? Případová studie tam.
nanochat. Moje komplexní implementace školicího/inferenčního kanálu ChatGPT (to nejnutnější)
Na agentech LLM. Moje kritika průmyslu je spíše v přestřelování nástrojů ve srovnání se současnými schopnostmi. Žiji v tom, co považuji za mezilehlý svět, kde chci spolupracovat s LLM a kde se shodují naše klady a zápory. Průmysl žije v budoucnosti, kde plně autonomní entity paralelně spolupracují na psaní veškerého kódu a lidé jsou k ničemu. Například nechci agenta, který se vypne na 20 minut a vrátí se s 1 000 řádky kódu. Rozhodně se necítím připravený na to, abych dohlížel na tým 10 z nich. Rád bych postupoval po částech, které si mohu nechat v hlavě, kde LLM vysvětluje kód, který píše. Chtěl bych, aby mi dokázal, že to, co udělal, je správné, chci, aby si vytáhl dokumentaci k API a ukázal mi, že věci používal správně. Chci, aby si dělal méně domněnek a ptal se/spolupracoval se mnou, když si něčím není jistý. Chci se učit za pochodu a stát se lepším programátorem, ne jen dostávat hory kódu, o kterém mi říkají, že funguje. Jen si myslím, že nástroje by měly být realističtější vzhledem k jejich schopnostem a tomu, jak zapadají do dnešního odvětví, a obávám se, že pokud se to neudělá dobře, mohli bychom skončit s horami odpadu, které se hromadí v softwaru, a nárůstem zranitelností, narušení bezpečnosti atd.
Automatizace práce. Jak se daří radiologům a jaké práce jsou více náchylné k automatizaci a proč.
Fyzika. Děti by se měly fyziku učit v raném vzdělávání ne proto, že se z ní budou učit, ale proto, že je to předmět, který nejlépe nastartuje mozek. Fyzici jsou intelektuální embryonální kmenové buňky, mám delší příspěvek, který byl napůl napsán v mých návrzích pro ~ rok, který doufám, že brzy dokončím.
Ještě jednou díky Dwarkeshi za pozvání!

Dwarkesh Patel18. 10. 01:16
Rozhovor s @karpathy
0:00:00 – AGI je ještě deset let daleko
0:30:33 – LLM kognitivní deficity
0:40:53 – RL je hrozný
0:50:26 – Jak se lidé učí?
1:07:13 – AGI se prolne do 2% růstu HDP
1:18:24 – ASI
1:33:38 – Evoluce inteligence a kultury
1:43:43 – Proč samořízení trvalo tak dlouho
1:57:08 – Budoucnost vzdělávání
Podívejte se na Dwarkesh Podcast na YouTube, Apple Podcasts, Spotify atd. Užijte si to!
1,68M
Televize v 90. letech: zapnete ji, díváte se.
TV 2025:
- zapněte, počkejte, až se načte
- vyskakovací okno: TV chce aktualizovat, 1,5 GB. Ne.
- Přejděte do strany, najděte aplikaci Prime Video atd
- vyskakovací okno: nyní chce aplikace aktualizovat, 500 MB. Ne!!
- Spuštění aplikace... Načítání aplikace...
- Vyberte obrazovku Účet
- 🫠
1,6M
S nadšením vydáváme nové repo: nanochat!
(patří mezi nejpomatenější, které jsem napsal).
Na rozdíl od mého dřívějšího podobného repo nanoGPT, které pokrývalo pouze předtrénování, je nanochat minimální, od nuly, full-stack trénovací/inferenční pipeline jednoduchého klonu ChatGPT v jediné kódové základně s minimální závislostí. Spustíte cloudový GPU box, spustíte jediný skript a za pouhé 4 hodiny později můžete mluvit se svým vlastním LLM ve webovém uživatelském rozhraní podobném ChatGPT.
Váží ~8 000 řádků imo docela čistého kódu, aby:
- Trénujte tokenizátor pomocí nové implementace Rust
- Předtrénovat Transformer LLM na FineWebu, vyhodnotit CORE skóre v řadě metrik
- Midtrain na konverzace s uživatelským asistentem ze SmolTalku, otázky s výběrem odpovědí, používání nástrojů.
- SFT, vyhodnoťte model chatu na základě možnosti výběru z více možností (ARC-E/C, MMLU), matematiky (GSM8K), kódu (HumanEval)
- RL model volitelně na GSM8K s "GRPO"
- Efektivní odvozování modelu v Enginu s KV cache, jednoduché předvyplňování/dekódování, použití nástrojů (interpret Pythonu v odlehčeném pískovišti), mluvte s ním přes CLI nebo WebUI podobné ChatGPT.
- Napište jednu markdown vysvědčení, které celou věc shrne a gamifikuje.
I za cenu ~100 $ (~4 hodiny na uzlu 8XH100) můžete vytrénovat malý klon ChatGPT, se kterým můžete tak trochu mluvit a který dokáže psát příběhy/básně, odpovídat na jednoduché otázky. Přibližně ~12 hodin překonává metriku GPT-2 CORE. Jak se dále rozšiřujete směrem k ~ 1000 $ (~ 41,6 hodin školení), rychle se stává mnohem koherentnějším a dokáže řešit jednoduché matematické/kódové problémy a skládat testy s výběrem odpovědí. Např. model hloubky 30 trénovaný 24 hodin (to se přibližně rovná FLOPům GPT-3 Small 125M a 1/1000 GPT-3) se dostane do 40s na MMLU a 70s na ARC-Easy, 20s na GSM8K atd.
Mým cílem je dostat celý "silný základní" stack do jednoho soudržného, minimálního, čitelného, hacknutelného a maximálně forkovatelného repozitáře. nanochat bude vrcholným projektem LLM101n (který je stále ve vývoji). Myslím, že má také potenciál vyrůst ve výzkumnou soustavu nebo benchmark, podobně jako předtím nanoGPT. V žádném případě to není dokončené, vyladěné nebo optimalizované (ve skutečnosti si myslím, že je tam pravděpodobně docela dost nízko visícího ovoce), ale myslím, že je to na místě, kde je celková kostra dostatečně v pořádku, aby mohla jít na GitHub, kde mohou být všechny její části vylepšeny.
Odkaz na repo a podrobný návod na nanochat speedrun je v odpovědi.

4,62M
Top
Hodnocení
Oblíbené