Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Bauen @EurekaLabsAI. Zuvor Director of AI @ Tesla, Gründungsteam @ OpenAI, CS231n/PhD @ Stanford. Ich trainiere gerne große tiefe neuronale Netze.
Ich habe mich als Programmierer noch nie so hinterher gefühlt. Der Beruf wird dramatisch umgestaltet, da die von den Programmierern beigetragenen Bits zunehmend spärlich und dazwischen sind. Ich habe das Gefühl, dass ich 10X leistungsfähiger sein könnte, wenn ich nur richtig zusammenfüge, was im letzten Jahr verfügbar geworden ist, und ein Versäumnis, den Boost zu nutzen, fühlt sich entschieden wie ein Skill-Problem an. Es gibt eine neue programmierbare Abstraktionsschicht zu meistern (neben den üblichen Schichten darunter), die Agenten, Unteragenten, deren Eingabeaufforderungen, Kontexte, Gedächtnis, Modi, Berechtigungen, Werkzeuge, Plugins, Fähigkeiten, Hooks, MCP, LSP, Slash-Befehle, Workflows, IDE-Integrationen und die Notwendigkeit umfasst, ein allumfassendes mentales Modell für Stärken und Schwächen von grundsätzlich stochastischen, fehleranfälligen, unintelligiblen und sich verändernden Entitäten zu entwickeln, die plötzlich mit dem, was früher gute alte Ingenieurskunst war, vermischt sind. Offensichtlich wurde ein mächtiges, fremdes Werkzeug herumgereicht, aber es kommt ohne Handbuch, und jeder muss herausfinden, wie man es hält und bedient, während das resultierende Erdbeben der Stärke 9 den Beruf erschüttert. Rollt die Ärmel hoch, um nicht hinterherzufallen.
28
Ich liebe den Ausdruck „Nahrung für den Geist“, da er eine konkrete, mysteriöse kognitive Fähigkeit beschreibt, die Menschen erleben, aber LLMs kein Äquivalent dafür haben.
Definition: „etwas, über das es sich nachzudenken oder das es zu berücksichtigen gilt, wie eine mentale Mahlzeit, die deinen Geist mit Ideen, Einsichten oder Themen nährt, die tiefere Reflexion erfordern. Es wird für Themen verwendet, die deine Perspektive herausfordern, neues Verständnis bieten oder dich dazu bringen, wichtige Fragen zu überdenken, und fungiert als intellektuelle Stimulation.“
Also, in der Sprache der LLMs ist es eine Sequenz von Tokens, die, wenn sie als Eingabe für eine Gedankenkette verwendet wird, die Proben belohnend macht, über die man nachdenken kann, über eine noch unentdeckte intrinsische Belohnungsfunktion. Besessen von der Form, die es annimmt. Nahrung für den Geist.
184
Schneller neuer Beitrag: Automatische Bewertung von Diskussionen auf Hacker News aus dem Jahr 2015 mit Rückblick
Ich habe alle 930 Artikel und Diskussionen von Hacker News auf der Startseite aus Dezember 2015 genommen und die GPT 5.1 Thinking API gebeten, eine Rückblickanalyse durchzuführen, um die vorausschauendsten und am wenigsten vorausschauenden Kommentare zu identifizieren. Das hat etwa 3 Stunden gedauert, um den Code zu entwickeln, und etwa 1 Stunde und 60 Dollar gekostet, um es auszuführen. Die Idee wurde durch den HN-Artikel von gestern angestoßen, in dem Gemini 3 gebeten wurde, die HN-Startseite ein Jahrzehnt in die Zukunft zu halluzinieren.
Allgemeiner gesagt:
1. Rückblickanalysen haben mich schon immer fasziniert, da sie eine Möglichkeit bieten, dein Vorhersagemodell zu trainieren, sodass es wirklich interessant ist, die Ergebnisse zu lesen, und
2. es ist wert, darüber nachzudenken, wie es aussieht, wenn die LLM-Megageister der Zukunft diese Art von Arbeit viel günstiger, schneller und besser erledigen können. Jedes einzelne Stück Information, das du ins Internet einbringst, kann (und wird wahrscheinlich) im Detail untersucht werden, wenn es "kostenlos" ist. Daher auch mein früherer Tweet von vor einiger Zeit - "Sei gut, zukünftige LLMs beobachten dich".
Herzlichen Glückwunsch an die Top 10 Konten pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth und johncolanduoni - GPT 5.1 Thinking hat eure Kommentare als die aufschlussreichsten und vorausschauendsten aller Kommentare von HN im Dezember 2015 eingestuft.
Links:
- Viel mehr Details in meinem Blogbeitrag
- GitHub-Repo des Projekts, falls du spielen möchtest
- Die tatsächlichen Ergebnisseiten für dein Lesevergnügen

725
Top
Ranking
Favoriten
