Ik modereerde een discussie tussen Dwarkesh, Dr. Burry en John Clark (van Anthropic) over meningsverschillen onder de groep mensen die beter geïnformeerd zijn over AI, inclusief de toekomstige impact op werkgelegenheid, of het een bubbel is, enz. Dank aan Substack voor het mogelijk maken.
Een subdispuut is in hoeverre LLM's, waarvan deze groep absoluut overeenkomt dat ze commercieel waardevolle dingen kunnen doen, onvoorspelbaar en foutgevoelig zijn op moeilijk te voorspellen manieren. Ja! Mensen zijn dat ook. En toevallig hebben we verschillende bugs.
Een punt dat door Jack is benadrukt en dat een van de grootste hiaten in het begrip tussen goed geïnformeerde mensen en degenen die goed geïnformeerd moeten zijn, is: de mogelijkheden van vandaag zijn een vloer in plaats van een plafond. Elk toekomstig systeem kan ervoor kiezen om deze mogelijkheden te omarmen of te verwerpen.
Jack vertelt kort hoe LLM's een scherpe breuk vormden met de eerder populaire opvatting dat we intelligentie zouden ontwikkelen door honderdduizend testbedden te bouwen, waarbij puntoplossingen leren hoe ze smal kunnen winnen, en dan ??? generalisatie impliceert intelligentie.
In plaats daarvan hebben we een *opmerkelijk* algemeen hulpmiddel gebouwd voor wat rond één omgeving draait ("zet het in een kamer met elk geschreven document") en dan blijkt het ding dat eruit komt buitengewoon succesvol te zijn wanneer je het op nieuwe taken gooit. De komende jaren kunnen inhouden dat we testbedden maken.
Zoals ik heb waargenomen: we trainden AIs om StarCraft te spelen. Alle toekomstige pogingen om dit te doen kunnen aannemen dat het systeem De Kunst van Oorlog in het oorspronkelijke Chinees heeft gelezen, tenzij de architect(en) geloven dat die kennis je slechter zal maken in het stoppen van zergling-aanvallen.
* Jack Clark, niet John Clark. Sorry, ik ben opgegroeid met het lezen van Tom Clancy. Op een van deze dagen zullen ze mijn tweets kunnen previewen, en ik zal me verheugen over hoeveel minder blunders er gebeuren bij het opstellen op mobiel.
234