Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 DeepSeek hat gerade etwas Wildes gemacht.
Sie haben ein mathematisches Modell entwickelt, das nicht nur Probleme löst, sondern auch seine eigenen Beweise überprüft, sich selbst kritisiert, die Logik korrigiert und es erneut versucht, bis es keinen einzigen Fehler finden kann.
Dieser letzte Teil ist der Durchbruch: ein Modell, das seine eigene Argumentation verifizieren kann, bevor du es verifizierst.
Und die Ergebnisse sind lächerlich:
• Goldniveau-Leistung bei IMO 2025
• Goldniveau-Leistung bei CMO 2024
• 118/120 bei Putnam 2024, nahezu perfekt, schlägt jede menschliche Punktzahl
• Übertrifft GPT-5 Thinking und Gemini 2.5 Pro in den schwierigsten Kategorien
Was DeepSeek Math V2 verrückt macht, ist nicht die Genauigkeit, sondern die Architektur dahinter.
Sie haben nicht nach größeren Modellen oder längeren Denkprozessen gesucht.
Sie haben ein Ökosystem aufgebaut:
✓ einen speziellen Verifier, der nach logischen Lücken sucht
✓ einen Meta-Verifier, der überprüft, ob der Verifier halluziniert
✓ einen Beweisgenerator, der lernt, schlechtes Denken zu fürchten
✓ und eine Trainingsschleife, in der das Modell weiterhin schwierigere Beweise generiert, die den Verifier zwingen, sich weiterzuentwickeln
Der Zyklus ist brutal:
Generieren → Verifizieren → Meta-verifizieren → Korrigieren → Wiederholen.
Das Kernproblem, das sie gelöst haben: Die Genauigkeit der Endantwort bedeutet nichts im Beweis von Theoremen. Du kannst die richtige Zahl mit Müll-Logik erhalten. Also haben sie einen Verifier trainiert, der den Beweis selbst beurteilt, nicht die Endantwort.
...

Top
Ranking
Favoriten

