Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
Var särskilt nyfiken på att fråga @karpathy varför självkörande bilar tog ett decennium+ från fantastiska demoturer till till och med något utplacerat. Andrej ledde AI på Tesla i 5 år.
Jag ville verkligen veta om dessa friktioner borde förlänga våra AGI-tidslinjer, eller om de var idiosynkratiska för självkörning.
Att köra bil har ett riktigt högt pris för misslyckanden. Människor är förvånansvärt pålitliga förare - vi har en allvarlig olycka var 400 000 miles/7 år. Och självkörande bilar måste matcha eller överträffa denna säkerhetsprofil innan de kan användas.
Men är de flesta domäner så här? Innan intervjun verkade det för mig som att nästan alla domäner som vi skulle vilja koppla in AGI i har en mycket lägre kostnad för misslyckande. Om helt autonoma mjukvaruingenjörer inte tilläts göra ett misstag på 7 år skulle implementeringen verkligen vara superlångsam.
Andrej gjorde en intressant poäng som jag inte hade hört förut: jämfört med självkörande har programvaruteknik en högre (och potentiellt obegränsad) kostnad för misslyckande:
> Om du skriver kod i produktionsklass kan alla typer av misstag leda till en säkerhetsrisk. Hundratals miljoner människors personliga personnummer kan läcka ut.
> Vid självkörning kan du skada dig om saker och ting går fel. Det finns värre resultat. Men inom mjukvara är det nästan obegränsat hur hemskt något kan vara.
> På sätt och vis är programvaruutveckling ett mycket svårare problem [än självkörande]. Självkörande bilar är bara en av tusentals saker som människor gör. Det är nästan som en enda vertikal. När vi pratar om allmän programvaruteknik finns det däremot mer yta.
Det finns potentiellt en annan anledning till att LLM-> allmänt distribuerade AGI-övergången kan ske mycket snabbare: LLM:er ger oss uppfattning, representationer och sunt förnuft (för att hantera exempel på distribution av distribution) gratis, medan dessa var tvungna att formas från grunden för självkörande bilar. Jag frågade Andrej om detta:
> jag vet inte hur mycket vi får gratis. LLM:er är fortfarande ganska felbara och de har många luckor som fortfarande måste fyllas i. Jag tror inte att vi får magisk generalisering helt ur lådan.
> Den andra aspekten som jag ville återkomma till är att självkörande bilar fortfarande inte är i närheten av att vara klara. Distributionerna är ganska minimala. Till och med Waymo har väldigt få bilar. De har byggt något som lever i framtiden. De har varit tvungna att dra tillbaka framtiden, men de var tvungna att göra den oekonomisk.
> Dessutom, när du tittar på de här bilarna och det inte finns någon som kör, finns det mer människor i loopen än du kanske förväntar dig. På något sätt har vi inte tagit bort personen, vi har flyttat dem till en plats där du inte kan se dem.

Dwarkesh Patel18 okt. 2025
Den @karpathy intervjun
0:00:00 – AGI är fortfarande ett decennium bort
0:30:33 – LLM kognitiva brister
0:40:53 – RL är fruktansvärt
0:50:26 – Hur lär sig människor?
1:07:13 – AGI kommer att smälta in i 2% BNP-tillväxt
1:18:24 – ASI
1:33:38 - Utveckling av intelligens och kultur
1:43:43 - Varför självkörning tog så lång tid
1:57:08 - Utbildningens framtid
Slå upp Dwarkesh Podcast på YouTube, Apple Podcasts, Spotify, etc. Njut!
126,14K
Topp
Rankning
Favoriter
