Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Heilige shit… dit zou wel eens de meest onwerkelijke upgrade van academisch schrijven kunnen zijn die ik ooit heb gezien 🤯
Een team van NUS heeft zojuist PaperDebugger gelanceerd, een in-editor, multi-agent systeem dat binnen Overleaf leeft en je paper in real-time herschrijft.
Geen copy-paste. Geen sidebar chatbot.
Echte agentische bewerking binnen je LaTeX-editor.
Hier is waarom dit insane is 👇
→ Je markeert een rommelige alinea, en het lanceert een volledige kritiek + herschrijf-pijplijn
→ Geeft schone voor–na verschillen terug zoals Git, en past je document onmiddellijk aan
→ Draait Reviewer, Enhancer, Scoring en Researcher agents parallel
→ Gebruikt Kubernetes pods om multi-agent redenering binnen de editor te schalen
→ Maakt gebruik van een MCP-toolchain voor literatuuronderzoek, referentie-opzoeking en sectie-niveau verbetering
Diepe onderzoeksmodus is zelfs nog gekker:
Het haalt relevante arXiv-papers op, vat ze samen, vergelijkt jouw methode ermee en genereert citatie-klaar tabellen… allemaal inline terwijl je aan het schrijven bent.
Het is in feite een mini-commissie van reviewers die in je document is ingebed, herschrijvend, critiserend, bronnen zoekend en polijstend zonder ooit de flow te onderbreken.
Als dit opschaalt, stopt Overleaf met een editor te zijn… en wordt het een volledige AI-ondersteunde onderzoeksomgeving.

1,06M
Banger paper van de Stanford Universiteit over latente samenwerking is net verschenen en het verandert voor altijd hoe we denken over multi-agent intelligentie.
"Latente Samenwerking in Multi-Agent Systemen" toont aan dat agenten kunnen coördineren zonder communicatiekanalen, vooraf gedefinieerde rollen of enige expliciete instructies voor teamwork. Ze verzinnen verborgen interne signalen binnen hun beleidsnetwerken die alleen andere agenten begrijpen.
Het is wild om te zien wat er ontstaat:
• Agenten die taken splitsen zonder enige begeleiding
• Rollen die stilletjes binnen de latente ruimte ontstaan
• Zwakke agenten die zich terugtrekken terwijl sterkere agenten het overnemen
• Verborgen onderhandelingssignalen die nooit verschijnen in de waarneembare acties
• Coördinatiestrategieën die verschuiven naarmate de omgeving verandert
Wat er van buitenaf eenvoudig uitziet, is eigenlijk een hele geheime “taal” die zich binnen de modellen vormt.
Het meest schokkende deel?
Ze testten scenario's zonder agenten enige communicatiemiddelen te geven… en samenwerking ontstond nog steeds. Pure trainingdruk en gedeelde beloningen.
Dit is een glimp van waar agentische AI naartoe gaat:
Teams die instinctief coördineren in plaats van mechanisch.
Agenten die samenwerken zoals biologische systemen dat doen, niet omdat ze het gezegd krijgen, maar omdat de strategie zich natuurlijk aandient.
Als je geïnteresseerd bent in autonome systemen, versterkend leren of multi-agent AI… dit is een must-read.

9,64K
🚨 DeepSeek heeft net iets wilds gedaan.
Ze hebben een wiskundig model gebouwd dat niet alleen problemen oplost, maar ook zijn eigen bewijzen controleert, zichzelf bekritiseert, de logica corrigeert en het opnieuw probeert totdat het geen enkele fout kan vinden.
Dat laatste deel is de doorbraak: een model dat zijn eigen redenering kan verifiëren voordat jij het verifieert.
En de resultaten zijn belachelijk:
• Gouden niveau prestaties op IMO 2025
• Gouden niveau prestaties op CMO 2024
• 118/120 op Putnam 2024 bijna perfect, beter dan elke menselijke score
• Presteert beter dan GPT-5 Thinking en Gemini 2.5 Pro in de moeilijkste categorieën
Wat DeepSeek Math V2 gek maakt, is niet de nauwkeurigheid, maar de architectuur erachter.
Ze hebben niet grotere modellen of langere ketens van gedachten nagestreefd.
Ze hebben een ecosysteem gebouwd:
✓ een toegewijde verifier die op zoek gaat naar logische hiaten
✓ een meta-verifier die controleert of de verifier hallucinaties heeft
✓ een bewijs-generator die leert bang te zijn voor slechte redeneringen
✓ en een trainingslus waarin het model steeds moeilijkere bewijzen blijft genereren die de verifier dwingen om te evolueren
De cyclus is meedogenloos:
Genereren → Verifiëren → Meta-verifiëren → Corrigeren → Herhalen.
Het kernprobleem dat ze hebben opgelost: de nauwkeurigheid van het eindantwoord betekent niets in het bewijzen van stellingen. Je kunt het juiste getal krijgen met waardeloze logica. Dus hebben ze een verifier getraind om het bewijs zelf te beoordelen, niet het eindantwoord.
De grafiek die de bewijsnauwkeurigheid vergelijkt over algebra, meetkunde, combinatoriek, getaltheorie en ongelijkheden toont aan dat DeepSeekMath-V2 zowel GPT-5 Thinking als Gemini 2.5 Pro op alle fronten verslaat (dit staat op pagina 7).
Het wilde deel is de sequentiële zelfverbetering. Met elke iteratie stijgt de eigen bewijs score van het model terwijl het zichzelf blijft debuggen zonder menselijke feedback.
Dit is niet "langere keten van gedachten."
Dit is "ik blijf denken totdat ik zeker weet dat ik gelijk heb."
Een echte verschuiving in hoe we redeneringsmodellen trainen.
DeepSeek heeft in wezen bewezen dat zelf-verifieerbare redenering mogelijk is in natuurlijke taal zonder formele bewijsassistent, zonder menselijke sporen, gewoon het model dat leert zijn eigen output te wantrouwen.
Als je om AI-redenering geeft, is dit paper een keerpunt.

139,25K
Boven
Positie
Favorieten
