Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chubby♨️
Karpathy re: jeho myšlenky na AGI


Andrej KarpathyPřed 4 h
Je mi potěšením přijít na Dwarkesh minulý týden, myslím, že otázky a konverzace byly opravdu dobré.
Znovu jsem se teď díval na modul. Za prvé, ano, vím a je mi líto, že mluvím tak rychle :). Je to k mé škodě, protože někdy moje mluvní vlákno předčí mé myšlenkové vlákno, takže si myslím, že jsem kvůli tomu zpackal několik vysvětlení, a někdy jsem byl také nervózní, že zacházím příliš do tangenty nebo příliš hluboko do něčeho relativně falešného. Každopádně pár poznámek/ukazatelů:
časové osy AGI. Moje komentáře k časovým osám AGI se zdají být nejtrendovější částí rané reakce. Toto je "desetiletí agentů" je odkaz na tento dřívější tweet V podstatě jsou mé časové osy AI asi 5-10x pesimistické ve srovnání s tím, co najdete na domácí párty ve vašem sousedství SF AI nebo na časové ose vašeho Twitteru, ale stále docela optimistické ve srovnání s rostoucí vlnou popíračů a skeptiků AI. Zdánlivý rozpor není: imo jsme současně 1) viděli obrovský pokrok v posledních letech s LLM, zatímco 2) stále zbývá spousta práce (grunt práce, integrační práce, senzory a aktuátory do fyzického světa, společenská práce, bezpečnost a zabezpečení práce (útěky z vězení, otravy atd.)) a také výzkum, který je třeba udělat, než budeme mít entitu, kterou byste raději najali před osobou pro libovolnou práci v svět. Myslím si, že celkově by 10 let mělo být pro AGI velmi býčí časová osa, jen v kontrastu se současným humbukem to tak nevypadá.
Zvířata vs duchové. Můj dřívější zápis o Suttonově podcastu. Mám podezření, že existuje jediný jednoduchý algoritmus, který můžete vypustit do světa a který se vše naučí od nuly. Pokud někdo něco takového postaví, budu se mýlit a bude to ten nejneuvěřitelnější průlom v AI. Podle mého názoru zvířata nejsou vůbec příkladem toho - jsou evolucí obdařena tunou inteligence a učení, které dělají, je celkově zcela minimální (příklad: Zebra při narození). Nasadíme si inženýrské klobouky a nebudeme znovu dělat evoluci. Ale s LLM jsme narazili na alternativní přístup k "předbalení" tuny inteligence do neuronové sítě - ne evolucí, ale předpovídáním dalšího tokenu přes internet. Tento přístup vede k jinému druhu entity v oblasti inteligence. Na rozdíl od zvířat, spíše jako duchové nebo duchové. Ale můžeme (a měli bychom) je časem udělat více zvířecí a v některých ohledech je to to, o čem je spousta hraniční práce.
Na RL. RL jsem již několikrát kritizoval, např. . Za prvé, "vysává dohled brčkem", takže si myslím, že signál/flop je velmi špatný. RL je také velmi hlučný, protože dokončení může obsahovat spoustu chyb, které by vás mohly povzbudit (pokud náhodou narazíte na správnou odpověď), a naopak brilantní tokeny vhledu, které by vás mohly odradit (pokud to později pokazíte). Procesní supervize a LLM soudci mají také problémy. Myslím, že uvidíme alternativní paradigmata učení. Jsem dlouhá "agentická interakce", ale krátká "zpětnovazební učení". V poslední době jsem viděl řadu článků, které podle mého názoru štěkají na správný strom v duchu toho, co jsem nazval "systémové promptní učení", ale myslím, že je také mezera mezi nápady na arxiv a skutečnou, v měřítku implementací v hraniční laboratoři LLM, která funguje obecným způsobem. Celkově jsem docela optimistický, že v této dimenzi zbývající práce uvidíme poměrně brzy dobrý pokrok a např. dokonce bych řekl, že paměť ChatGPT a tak dále jsou primordiálně nasazené příklady nových paradigmat učení.
Kognitivní jádro. Můj dřívější příspěvek o "kognitivním jádru": , myšlenka ořezávání LLM, ztěžování zapamatování nebo aktivní odstraňování paměti, aby se zlepšili v generalizaci. Jinak se příliš opírají o to, co si zapamatovali. Lidé si nemohou tak snadno zapamatovat, což nyní v kontrastu s tím vypadá spíše jako funkce než jako chyba. Možná je neschopnost zapamatovat si jakousi regularizací. Také můj příspěvek z doby před chvílí o tom, jak je trend ve velikosti modelů "zpětný" a proč "modely se musí nejprve zvětšit, než se mohou zmenšit"
Cestování časem do Yann LeCun 1989. Toto je příspěvek, který jsem udělal velmi uspěchanou / špatnou práci popsat na podu: . V podstatě - o kolik byste mohli zlepšit výsledky Yanna LeCuna se znalostí 33 let algoritmického pokroku? Jak omezené byly výsledky jednotlivých algoritmů, dat a výpočtů? Případová studie tam.
nanochat. Moje komplexní implementace školicího/inferenčního kanálu ChatGPT (to nejnutnější)
Na agentech LLM. Moje kritika průmyslu je spíše v přestřelování nástrojů ve srovnání se současnými schopnostmi. Žiji v tom, co považuji za mezilehlý svět, kde chci spolupracovat s LLM a kde se shodují naše klady a zápory. Průmysl žije v budoucnosti, kde plně autonomní entity paralelně spolupracují na psaní veškerého kódu a lidé jsou k ničemu. Například nechci agenta, který se vypne na 20 minut a vrátí se s 1 000 řádky kódu. Rozhodně se necítím připravený na to, abych dohlížel na tým 10 z nich. Rád bych postupoval po částech, které si mohu nechat v hlavě, kde LLM vysvětluje kód, který píše. Chtěl bych, aby mi dokázal, že to, co udělal, je správné, chci, aby si vytáhl dokumentaci k API a ukázal mi, že věci používal správně. Chci, aby si dělal méně domněnek a ptal se/spolupracoval se mnou, když si něčím není jistý. Chci se učit za pochodu a stát se lepším programátorem, ne jen dostávat hory kódu, o kterém mi říkají, že funguje. Jen si myslím, že nástroje by měly být realističtější vzhledem k jejich schopnostem a tomu, jak zapadají do dnešního odvětví, a obávám se, že pokud se to neudělá dobře, mohli bychom skončit s horami odpadu, které se hromadí v softwaru, a nárůstem zranitelností, narušení bezpečnosti atd.
Automatizace práce. Jak se daří radiologům a jaké práce jsou více náchylné k automatizaci a proč.
Fyzika. Děti by se měly fyziku učit v raném vzdělávání ne proto, že se z ní budou učit, ale proto, že je to předmět, který nejlépe nastartuje mozek. Fyzici jsou intelektuální embryonální kmenové buňky, mám delší příspěvek, který byl napůl napsán v mých návrzích pro ~ rok, který doufám, že brzy dokončím.
Ještě jednou díky Dwarkeshi za pozvání!
2,58K
Top
Hodnocení
Oblíbené