Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Herregud... denne artikkelen kan være det viktigste skiftet i hvordan vi bruker LLM-er i år.
"Store kausale modeller fra store språkmodeller."
Det viser at du kan utvikle fullstendige kausale modeller direkte ut av en LLM, ikke tilnærminger, ikke viber, faktiske årsaksgrafer, kontrafaktiske analyser, intervensjoner og begrensningskontrollerte strukturer.
Og måten de gjør det på er vill:
I stedet for å trene en spesialisert kausal modell, undersøker de LLM-en som en forsker:
→ trekke ut en kandidat årsaksgraf fra tekst
→ be modellen sjekke betingede uavhengigheter
→ oppdager motsetninger
→ revidere strukturen
→ tester kontrafaktiske og intervensjonelle prediksjoner
→ iterere til den kausale modellen stabiliserer seg
Resultatet er noe vi aldri har hatt før:
et kausalt system bygget inne i LLM-en ved hjelp av sin egen latente verdenskunnskap.
På tvers av benchmarks syntetiske, virkelige, rotete domener slår disse LCM-ene klassiske årsaksmessige oppdagelsesmetoder fordi de henter fra LLM-ens enorme forhåndskunnskap i stedet for bare lokale korrelasjoner.
Og den kontrafaktiske begrunnelsen?
Sjokkerende sterk.
Modellen kan svare på «hva om»-spørsmål som standardalgoritmer fullstendig feiler på, rett og slett fordi den allerede «vet» ting om verden som disse algoritmene ikke kan slutte seg til fra data alene.
Denne artikkelen antyder en fremtid der LLM-er ikke bare er mønstermaskiner.
De blir kausale motorsystemer som danner, tester og forbedrer strukturelle forklaringer på virkeligheten.
Hvis dette skalerer, vil alle felt som baserer seg på kausal slutning, økonomi, medisin, politikk og vitenskap bli omskrevet.
LLM-er forteller deg ikke bare hva som skjer.
De vil fortelle deg hvorfor.

42
Denne DeepMind-artikkelen har nettopp stille drept den mest trøstende løgnen innen AI-sikkerhet.
Ideen om at sikkerhet handler om hvordan modellene oppfører seg mesteparten av tiden høres rimelig ut. Det er også feil når systemene skalerer. DeepMind viser hvorfor gjennomsnitt slutter å bety noe når utrullingen når millioner av interaksjoner.
Artikkelen omdefinerer AGI-sikkerhet som et distribusjonsproblem. Det som betyr noe er ikke typisk oppførsel. Det er halen. Sjeldne feil. Kanttilfeller. Hendelser med lav sannsynlighet som føles ignorerbare i tester, men som blir uunngåelige i den virkelige verden.
Benchmarks, red-teaming og demoer utgjør alle et utvalg av midten. Utrulling prøver alt. Merkelige brukere, merkelige insentiver, fiendtlige tilbakemeldingssløyfer, miljøer ingen hadde planlagt for. I stor skala slutter slike tilfeller å være sjeldne. De er garantert.
Her er den ubehagelige innsikten: fremgang kan få systemer til å se tryggere ut, samtidig som de stille gjør dem farligere. Hvis kapasiteten vokser raskere enn halekontroll, går synlige feil ned mens katastrofale risikoer bygger seg opp utenfor skjermen.
To modeller kan i gjennomsnitt se identiske ut og likevel variere kraftig i verst tenkelig atferd. Nåværende evalueringer kan ikke se dette gapet. Styringsrammeverk antar at de kan.
Du kan ikke sertifisere sikkerhet med endelige tester når risikoen ligger i distribusjonsskiftet. Du tester aldri systemet du faktisk ruller ut. Du prøver en fremtid du ikke kontrollerer.
Det er den virkelige poenget.
AGI-sikkerhet er ikke en modellegenskap. Det er et system-problem. Implementeringskontekst, insentiver, overvåking og hvor mye halerisiko samfunnet tolererer, betyr alle mer enn rene gjennomsnitt.
Dette papiret gir ingen trygghet. Det fjerner illusjonen.
Spørsmålet er ikke om modellen vanligvis oppfører seg bra.
Det er hva som skjer når det ikke skjer — og hvor ofte det er tillatt før skalaen gjør det uakseptabelt.
Artikkel:

41
Topp
Rangering
Favoritter

