Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeremy Howard
Jeremy Howard lagt ut på nytt
I dag lanserer vi Parsed. Vi er utrolig heldige som lever i en verden der vi står på skuldrene til giganter, først innen vitenskap og nå innen AI. Våre helter har fått oss til dette punktet, hvor vi har strålende generell intelligens i lommen. Men dette er en lokal minima. Vi har nå et økosystem av spirende oppgaver der hver av dem krever en annen type intelligens, en annen kontekst, en hel rekke implisitte antagelser og latent kunnskap og domeneekspertise som er svært vanskelig å stappe inn i en systemforespørsel.
De store laboratoriene vil at du skal leie deres $50k/måned hukommelsestapspraktikanter som glemmer alt mellom samtalene. Generiske giganter som blir kvantisert, versjonert og avviklet bak kulissene, der det eneste elementet av kontroll du har er din rotete monolittiske brukermelding. Vi vil at folk som trenger sin egen intelligens ikke bare skal kunne få tilgang til den, men også kontrollere den. Og selv om de store generelle modellene er utrolig gode chatbots og kodeagenter og leverandører av verden, er det nødvendig med spesialisering av intelligens. Kliniske skrivere, markedsføringsagenter, juridiske red-lining-modeller, forsikringspoliseanbefalinger, listen fortsetter.
Og det er det Parsed gjør: distribuere din egen grensemodell som faktisk lærer. Vi vurderer din spesifikke oppgave, bygger en tilpasset evalueringssele, optimaliserer en modell bare for deg og er vert for den med kontinuerlig læring. Vi baker all konteksten og kunnskapen om oppgaven din inn i selve modellen, fra ingeniørene dine til domeneekspertene dine til tilbakemeldinger fra kunder, alt i en tett SFT- → RL-sløyfe, med nyttig tolkbarhet muliggjort av åpen kildekode-økosystemet vi bygger på toppen av. Ingen flere 2000-ords spørsmål med sytten "VIKTIG: ALDRI GJØR X"-setninger. Modellen din blir bedre på jobben din hver eneste dag; De hukommelsesløse pseudo-gudene har hatt sitt løp. Din modell, dine data, din vollgrav. La oss bygge 🫡
50,39K
Jeremy Howard lagt ut på nytt
Til alle studenter som er interessert i å lære om AI: vær forsiktig med å ta "Intro to AI" som ditt første AI-kurs. I mange programmer er timen du faktisk vil ha først "Intro to Machine Learning".
AI-teknologi har eksplodert de siste 15 årene takket være dype nevrale nettverk. Men på mange skoler har «Intro to AI»-læreplanen knapt endret seg fra hva den var i 2010, og bruker ofte bare noen få forelesninger på maskinlæring. Dessverre er fornyelse av "Intro to AI" kontroversielt ved mange universiteter, og treghet har en tendens til å dominere.
Ikke bestem deg for hvilket kurs du skal ta basert på navnet alene. Sjekk heller pensum. Ideelt sett dekker kurset lineær regresjon, gradient descent, backpropagation og reinforcement learning. Hvert universitet er forskjellig, og noen "Intro to AI"-kurs vil dekke alle disse emnene, men de fleste gjør det ikke.
Hvis du planlegger å satse på AI som en karriere, tror jeg det er fornuftig å ta "Intro to AI" senere for et bredere perspektiv på intelligens. Men hvis målet ditt er en introduksjon til teknologien som driver moderne chatbots, bildegjenkjennings-/genereringsverktøy og kodeassistenter, er klassen du sannsynligvis vil ha først "Introduksjon til maskinlæring".


75,24K
Jeremy Howard lagt ut på nytt
I en tid med fortrening var det internetttekst som betydde noe. Du vil først og fremst ha en stor, mangfoldig samling av internettdokumenter av høy kvalitet å lære av.
I en tid med overvåket finjustering var det samtaler. Kontraktsarbeidere er ansatt for å lage svar på spørsmål, litt som det du vil se på Stack Overflow / Quora, eller etc., men rettet mot LLM-brukstilfeller.
Ingen av de to ovennevnte forsvinner (imo), men i denne epoken med forsterkende læring er det nå miljøer. I motsetning til de ovennevnte, gir de LLM en mulighet til å faktisk samhandle - iverksette handlinger, se resultater osv. Dette betyr at du kan håpe å gjøre det mye bedre enn statistisk ekspertimitasjon. Og de kan brukes både til modelltrening og evaluering. Men akkurat som før, er kjerneproblemet nå å trenge et stort, mangfoldig sett med miljøer av høy kvalitet, som øvelser for LLM å øve mot.
På noen måter blir jeg minnet om OpenAIs aller første prosjekt (treningsstudio), som var akkurat et rammeverk i håp om å bygge en stor samling miljøer i samme skjema, men dette var lenge før LLM-er. Så miljøene var enkle akademiske kontrolloppgaver på den tiden, som cartpole, ATARI, etc. Huben for @PrimeIntellect miljøer (og «verifikatorer»-repositoriet på GitHub) bygger den moderniserte versjonen som er spesielt rettet mot LLM-er, og det er en flott innsats/idé. Jeg foreslo at noen skulle bygge noe lignende tidligere i år:
Miljøer har den egenskapen at når skjelettet til rammeverket er på plass, kan i prinsippet samfunnet/industrien parallellisere på tvers av mange ulike domener, noe som er spennende.
Siste tanke - personlig og langsiktig, jeg er bullish på miljøer og agentiske interaksjoner, men jeg er bearish på forsterkende læring spesifikt. Jeg tror at belønningsfunksjoner er super sus, og jeg tror mennesker ikke bruker RL for å lære (kanskje de gjør det for noen motoriske oppgaver osv., men ikke intellektuelle problemløsningsoppgaver). Mennesker bruker forskjellige læringsparadigmer som er betydelig kraftigere og prøveeffektive, og som ikke har blitt ordentlig oppfunnet og skalert ennå, selv om tidlige skisser og ideer eksisterer (som bare ett eksempel, ideen om "systemrask læring", flytte oppdateringen til tokens/kontekster ikke vekter og eventuelt destillere til vekter som en egen prosess litt som søvn gjør).
612,78K
Topp
Rangering
Favoritter