Jeg ledet en diskusjon mellom Dwarkesh, Dr. Burry og John Clark (fra Anthropic) om uenigheter blant de som er bedre informert om AI, inkludert fremtidig innvirkning på sysselsetting, om det er en boble, osv. Takk til Substack for at de fikk det til.
En underuenighet er i hvilken grad LLM-er, som denne gruppen absolutt er enige om kan gjøre kommersielt verdifulle ting, er piggete og feilutsatte på vanskelig å forutsi måter. Ja! Det er også mennesker. Og heldigvis har vi andre feil.
Et poeng Jack fremhever, og som er et av de største gapene i forståelse mellom folk som er godt informert og de som trenger å være godt informert: dagens evner er et gulv snarere enn et tak. Ethvert fremtidig system kan velge eller forkaste dem.
Jack forteller kort hvordan LLM-er var et skarpt brudd med den tidligere populære oppfatningen om at vi skulle utvikle intelligens ved å bygge hundre tusen testplattformer, la punktløsninger lære å vinne med knapp margin, og deretter ??? Generalisering innebærer intelligens.
I stedet har vi laget et *slående* generelt verktøy for hva som går til ett miljø ("legg det i et rom med hvert skriftlige dokument"), og så viser det seg å være utrolig vellykket når du kaster det på nye oppgaver. De neste årene kan innebære å lage testmiljøer.
Som jeg observerte: vi pleide å trene AI-er til å spille StarCraft. Alle fremtidige forsøk på dette kan anta at systemet har lest krigskunsten på originalkinesisk, med mindre arkitekten(e) tror at kunnskapen vil gjøre deg dårligere til å stoppe zergling rushes.
* Jack Clark, ikke John Clark. Beklager, vokste opp med å lese Tom Clancy. En dag vil de kunne forhåndsvise tweetene mine, og jeg vil glede meg over hvor mye mindre egg on face som skjer når jeg skriver på mobil.
264