Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Herregud... dette kan være den mest uvirkelige oppgraderingen innen akademisk skriving jeg noen gang har sett 🤯
Et team fra NUS har nettopp lansert PaperDebugger, et system med flere agenter i redaktøren som ligger i Overleaf og omskriver artikkelen din sammen med deg i sanntid.
Ikke kopier og lim inn. Ikke en sidebar-chatbot.
Faktisk agentisk redigering inne i LaTeX-editoren din.
Her er hvorfor dette er helt sprøtt 👇
→ Du markerer et rotete avsnitt, og det starter en full kritikk + omskriving-pipeline
→ Returnerer rene før–etter-differensialer som Git, og patcher deretter dokumentet ditt umiddelbart
→ kjører Reviewer-, Enhancer-, Scoring- og Researcher-agenter parallelt
→ Bruker Kubernetes-pods for å skalere multi-agent resonnement inne i editoren
→ Bruker en MCP-verktøykjede for litteratursøk, referanseoppslag og forbedring på seksjonsnivå
Dypforskningsmodus er enda villere:
Den henter relevante arXiv-artikler, oppsummerer dem, sammenligner metoden din med dem, og genererer tabeller klare for sitater... Alt står på linje mens du skriver.
Det er i bunn og grunn en liten komité av vurderere innebygd i dokumentet ditt som omskriver, kritiserer, kilder og polerer uten å bryte flyten.
Hvis dette skalerer, slutter Overleaf å være redaktør... og blir et fullstendig AI-assistert forskningsmiljø.

1,06M
En flott artikkel fra Stanford University om latent samarbeid har nettopp kommet ut, og den endrer hvordan vi tenker på intelligens med flere agenter for alltid.
"Latent samarbeid i fleragentsystemer" viser at agenter kan koordinere uten kommunikasjonskanaler, forhåndsdefinerte roller eller eksplisitte teamarbeidsinstruksjoner. De finner opp skjulte interne signaler i sine politiske nettverk som bare andre agenter forstår.
Det er vilt å se hva som dukker opp:
• Agenter som deler oppgaver uten veiledning
• Roller som dannes stille inne i det latente rommet
• Svake agenter trekker seg tilbake mens sterkere tar over
• Skjulte forhandlingssignaler som aldri vises i de observerbare handlingene
• Koordineringsstrategier som endrer seg etter hvert som miljøet endrer seg
Det som ser ut som enkel oppførsel på utsiden, er egentlig et helt hemmelig "språk" som dannes inne i modellene.
Det mest sjokkerende?
De testet scenarioer uten å gi agentene noen kommunikasjonsverktøy... og samarbeid oppsto fortsatt. Utelukkende på grunn av treningspress og delte belønninger.
Dette er et glimt av hvor agentisk AI er på vei:
Lag som koordinerer instinktivt i stedet for mekanisk.
Agenter som samarbeider slik biologiske systemer gjør, ikke fordi de blir bedt om det, men fordi strategien naturlig oppstår.
Hvis du bryr deg om autonome systemer, forsterkningslæring eller multi-agent AI... Denne er et must å lese.

9,63K
🚨 DeepSeek gjorde nettopp noe vilt.
De bygde en matematisk modell som ikke bare løser problemer, den sjekker sine egne bevis, kritiserer seg selv, fikser logikken, og prøver igjen til den ikke finner en eneste feil.
Den siste delen er gjennombruddet, en modell som kan verifisere sin egen resonnement før du verifiserer den.
Og resultatene er latterlige:
• Gull-nivå ytelse på IMO 2025
• Gullnivåprestasjoner på CMO 2024
• 118/120 på Putnam 2024 nærmest perfekt, og slår alle menneskelige poengsummer
• Overgår GPT-5 Thinking og Gemini 2.5 Pro på de vanskeligste kategoriene
Det som gjør DeepSeek Math V2 sprøtt er ikke nøyaktighet, men arkitekturen bak det.
De jaget ikke større modeller eller lengre tankerekker.
De bygde et økosystem:
✓ En dedikert verifikator som leter etter logiske hull
✓ En meta-verifikator som sjekker om verifikatoren hallusinerer
✓ En bevisgenerator som lærer å frykte dårlig resonnement
✓ og en treningssløyfe der modellen stadig genererer vanskeligere bevis som tvinger verifikatoren til å utvikle seg
Syklusen er brutal:
Generer → verifiser → meta-verifiserer → fikser → gjentar.
Kjerneproblemet de løste: nøyaktigheten i sluttsvaret betyr ingenting i teorembevis. Du kan få riktig tall med søppellogikk. Så de trente en verifikator til å vurdere beviset selv, ikke det endelige svaret.
Grafen som sammenligner bevisnøyaktighet på tvers av algebra, geometri, kombinatorikk, tallteori og ulikheter viser at DeepSeekMath-V2 slår både GPT-5 Thinking og Gemini 2.5 Pro over hele linja (dette er på side 7).
Den ville delen, sekvensiell selvraffinering. For hver iterasjon stiger modellens egen bevisscore ettersom den fortsetter å feilsøke seg selv uten menneskelig tilbakemelding.
Dette er ikke «lengre tankekjede».
Dette er «Jeg vil fortsette å tenke til jeg er sikker på at jeg har rett.»
Et reelt skifte i hvordan vi trener resonnementmodeller.
DeepSeek beviste i bunn og grunn at selvverifiserbar resonnering er mulig i naturlig språk – ingen formell bevisassistent, ingen menneskelige spor, bare modellen som lærer å mistro sitt eget output.
Hvis du bryr deg om AI-resonnement, er denne artikkelen et vendepunkt.

139,25K
Topp
Rangering
Favoritter
