Philip Clark (@PJClark), partner på Thrive Capital (@ThriveCapital), bygger på investeringar i OpenAI, Cursor, Physical Intelligence och sin halvledarbakgrund för att presentera tre viktiga insikter om AI-utvecklingens tillstånd: 1.) AI:s genombrott är inte linjära. De kommer i arkitektoniska vågor, precis som kisel. Philips halvledaranalogi omformulerar AI:s framsteg som en sekvens av hårdvaruliknande paradigmskiften. När en väg når sin gräns (enkelkärnig → flerkärnig; förträning → efterträning) uppstår en ny arkitektur. AI utvecklas inte genom inkrementell justering.. Det går framåt genom strukturella omvandlingar. 2.) Förstärkningsinlärning är nästa arkitekturera (för tillfället) Philip ramar in förstärkningsinlärning som efterföljaren till efterträning: en ny grund, inte en optimering. Men avgörande är att han betonar att det inte kommer att bli den sista. Precis som hårdvaran ständigt hoppade från enkelkärnig till flerkärnig till GPU:er, kommer AI att uppleva flera paradigmvågor, där varje våg låser upp nya prestandatak. Förstärkningsinlärning är helt enkelt nästa våg, inte den sista. 3.) OpenAIs vallgrav är inte modellerna.. Det är dess förmåga att fortsätta upptäcka nästa paradigm. Philip menar att den grundläggande fördelen ligger uppströms i produkten: varje stort arkitektoniskt genombrott inom stora modeller har sitt ursprung i OpenAI. Deras försvarbarhet kommer från att upprepade gånger uppfinna "nästa sak" samtidigt som de operationaliserar det föregående.. en sällsynt kombination i vilken bransch som helst, än mindre en som definieras av diskontinuerliga hopp. . . . Molly: "En av sponsorerna som stolt sponsrar Sourcery är @turingcom, och därför har jag fått exponering för AI-forskningssidan – en AI-forskningsaccelerator [vi har intervjuat VD:n, @jonsidd]. De hjälper till med modellerna. Och just nu märker de en kraftig förändring under det senaste kvartalet eller två från imitationsdata och syntetisk data till förstärkningsinlärning. Så jag är nyfiken på hur du ser på det på den tekniska sidan, och även på applikationssidan?" Philip: "Jag tror att AI är lite som halvledare på ett sätt—om jag får gå tillbaka till halvledare, den stora referenspunkten. I den meningen att det finns många, många vågor när vi försöker få bättre och bättre prestation. Du vet, med halvledare brukade vi ha enkärniga halvledare. Sedan kunde vi i princip inte pressa ut något mer ur en enda kärna, så vi gick över till multi-core. Och sedan gick vi över till GPU:er. Och jag tror att vi ser något väldigt liknande med AI, nämligen att vi började med förträning redan under GPT-1, GPT-2, GPT-3-eran. Det tog oss till GPT-4. Sedan började vi använda många efterträningstekniker för ChatGPT – övervakad finjustering, förstärkningsinlärning med mänsklig feedback. Detta gjorde att modellerna kunde vara mindre utomjordiska intelligenser och mer hjälpsamma assistenter. Och nu, när mycket av de lågt hängande frukterna från dessa framsteg har pressats ut (även om det förmodligen fortfarande finns mycket kvar att göra), har förstärkningsinlärning blivit nästa stora paradigmskifte inom AI och dit många av resurserna går....