Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. für Physik @UAM_Madrid | Professor. PI des AI for Materials Lab | Direktor des AI for Materials Lab.
Den Raum biegen, um Energie anzupassen: wie Geometrie die Vorhersage der molekularen Struktur auf chemische Genauigkeit bringt
Die Vorhersage der 3D-Struktur eines Moleküls – wo genau jedes Atom im Raum sitzt – ist grundlegend für die computergestützte Chemie. Wenn man es ein wenig falsch macht, können die Energieberechnungen stark abweichen. Der Goldstandard ist die Dichtefunktionaltheorie, aber DFT ist langsam und teuer. Maschinelles Lernen bietet einen schnelleren Weg: ein Modell trainieren, um eine grobe Anfangsschätzung in eine genaue Struktur zu entrauschen.
Das Problem ist, dass die meisten Denoising-Modelle im gewöhnlichen euklidischen Raum arbeiten, wo alle Richtungen gleich behandelt werden. Aber Moleküle funktionieren nicht so. Das Dehnen einer Bindung kostet viel mehr Energie als das Drehen darum. Gleiche Abstände in kartesischen Koordinaten bedeuten nicht gleiche Energieänderungen.
Jeheon Woo und Mitautoren gehen dieses Missverhältnis direkt an. Sie konstruieren eine Riemannsche Mannigfaltigkeit – einen gekrümmten Raum mit einer positionsabhängigen Metrik – die so gestaltet ist, dass die geodätische Distanz mit dem Energiedifferenz korreliert. Die Metrik wird aus physik-informierten internen Koordinaten aufgebaut, die die interatomaren Abstände gewichten, je nachdem, wie viel Energie es kostet, sie zu ändern: starre Bindungen zählen mehr als weiche Torsionen. Wenn sie die geodätische Distanz mit dem standardmäßigen RMSD vergleichen, springt die Korrelation mit der Energie von 0,37 auf 0,90.
Das Training eines Denoising-Modells in diesem gekrümmten Raum verändert, was das Modell lernt. Im euklidischen Raum kann das Hinzufügen von isotropem Rauschen Bindungen brechen oder unmögliche Geometrien erzeugen – Strukturen, die Hunderte von kcal/mol über dem Minimum liegen. Auf der Riemannschen Mannigfaltigkeit bleibt die gleiche Rauschgröße chemisch sinnvoll, indem sie innerhalb des gleichen Potentialbrunnens bleibt. Der Denoising-Pfad selbst folgt Geodäten, die die Energie-Minimierung verfolgen, nicht willkürlichen geraden Linien durch den kartesischen Raum.
Die Ergebnisse erreichen die entscheidende Schwelle: chemische Genauigkeit, definiert als Energiefehler unter 1 kcal/mol. Beim QM9-Benchmark erreicht das Riemannsche Modell einen Medianfehler von 0,177 kcal/mol – ungefähr 20× besser als die Ausgangsstrukturen des Kraftfelds und deutlich besser als die euklidische Version. Wenn diese Vorhersagen als Ausgangspunkte für die DFT-Verfeinerung verwendet werden, sinken die Rechenkosten um mehr als die Hälfte.
Der tiefere Punkt: In der molekularen Modellierung ist die Geometrie des Darstellungsraums nicht neutral. Der euklidische Raum behandelt alle atomaren Verschiebungen als gleichwertig; der Riemannsche Raum kann die Physik kodieren. Wenn man die geometrische Distanz mit den energetischen Kosten in Einklang bringt, wird Denoising zu Optimierung, und das Modell lernt, der potenziellen Energieoberfläche zu folgen, anstatt gegen sie zu kämpfen.
Papier:

50
Entsperrung von Einzelzell-Grundlagenmodellen mit 96 % weniger Parametern
Einzelzell-große Sprachmodelle (scLLMs) haben bemerkenswertes biologisches Wissen aus Millionen von Zellen erlernt. Aber sie haben eine kritische Schwäche: Wenn man sie aus ihrem Trainingskontext herausnimmt – eine neue Krankheit, eine unbekannte Art, eine nicht charakterisierte Zellpopulation – werden ihre Vorhersagen unzuverlässig.
Die Standardlösung ist das Fine-Tuning. Aber Fine-Tuning überschreibt die ursprünglichen Modellparameter, was zu einem "katastrophalen Vergessen" des zuvor erlernten biologischen Wissens führt. Und es ist rechenintensiv, da es erhebliche GPU-Ressourcen erfordert, über die viele Forscher einfach nicht verfügen.
Fei He und Mitautoren schlagen scPEFT vor – ein parameter-effizientes Fine-Tuning-Framework, das das ursprüngliche scLLM-Rückgrat einfriert und nur kleine, niederdimensionale Adapter trainiert. Vier Adaptertypen (Token-Adapter, Prefix-Adapter, LoRA, Encoder-Adapter) fügen sich in verschiedene Teile der Modellarchitektur ein und lernen aufgabenspezifische Anpassungen, ohne die vortrainierten Gewichte zu berühren.
Die Effizienzgewinne sind bemerkenswert: scPEFT reduziert die trainierbaren Parameter um über 96 % und senkt den GPU-Speicherverbrauch um mehr als die Hälfte. Aber das Wichtigste ist: Es funktioniert tatsächlich besser als vollständiges Fine-Tuning. Bei krankheitsspezifischen Datensätzen (NSCLC, MS, COVID-19) erzielt scPEFT 39,7–81,7 % Genauigkeitsverbesserungen gegenüber nativen Modellen und 4,3–15 % Gewinne gegenüber feinabgestimmten Versionen, genau weil es das vortrainierte Wissen bewahrt, anstatt es zu überschreiben.
Das Framework ermöglicht auch den Transfer zwischen Arten von menschlich trainierten Modellen: 14 % Verbesserung bei Mausneuronen, 39 % bei Makakenkeimzellen und 144 % bei C. elegans – alles unter Verwendung orthologer Genkarten. Die Analyse der Aufmerksamkeit identifiziert COVID-bezogene Gene in spezifischen T-Zell-Zuständen und entdeckt biologisch relevante Subpopulationen, die für feinabgestimmte Modelle unsichtbar sind.
Die breitere Implikation: Da Grundlagenmodelle in der Biologie proliferieren, benötigen wir effiziente Möglichkeiten, sie anzupassen, ohne das, was sie gelernt haben, zu zerstören. scPEFT zeigt, dass manchmal weniger Aktualisierung mehr Lernen bedeutet.
Papier:

62
Neuro-wissenschaftlich inspirierte Architekturen für den Aufbau wirklich adaptiver KI
Moderne KI-Systeme sind leistungsstark, aber brüchig. Trainiere ein Modell, setze es ein und beobachte, wie die Leistung nachlässt, während sich die Welt verändert. Trainiere mit neuen Daten, und das Modell vergisst, was es wusste. Dieser Zyklus produziert Systeme, die bei statischen Benchmarks hervorragend abschneiden, aber Schwierigkeiten mit kontinuierlicher Anpassung haben – etwas, das biologische Intelligenz mühelos bewältigt.
Eine Maus kann in etwa zehn Versuchen mit wenigen Beispielen lernen, Wasser in einem neuen Labyrinth zu finden, eine Lernrate, die 1.000 Mal schneller ist als bei traditionellen Laboraufgaben. Doch unsere ausgeklügeltsten neuronalen Netzwerke leiden unter katastrophalem Vergessen, wenn sie sequenziell lernen sollen.
Das Gehirn bietet eine andere Architektur. Es funktioniert nicht als ein einziges verworrenes Netzwerk, sondern als intelligent miteinander verbundene spezialisierte Module – der visuelle Kortex verarbeitet Kanten, der motorische Kortex rechnet im Kraftfeld, die präfrontalen Regionen verfolgen aufgabenstrukturierte Erinnerungen. Jedes Modul erstellt interne Modelle, die durch Vorhersagefehler aktualisiert werden, wenn die erwarteten Ergebnisse von der Realität abweichen. Diese signierten Lehrsignale wurden inzwischen in sensorischen, motorischen und Belohnungsschaltkreisen entdeckt.
Mackenzie Weygandt Mathis synthetisiert diese Erkenntnisse in einen Vorschlag für adaptive agentische KI. Anstatt immer größere monolithische Grundmodelle zu verfolgen, plädiert sie für Systeme von domänenspezifischen Codierern, deren Ausgaben in einem gemeinsamen latenten Raum gemeinsam optimiert werden. Jeder Codierer wird durch Vorhersagefehlersignale überwacht – robuste Codierer bleiben "gesperrt", während diejenigen, die eine verschlechterte Leistung zeigen, "entsperrt" werden, um kontinuierliches Lernen mithilfe von Gedächtniswiederholung oder synaptischer Intelligenz zu ermöglichen, ohne das gesamte System offline zu nehmen.
Das übergeordnete Prinzip: Durch die Strukturierung von KI rund um neuro-wissenschaftlich inspirierte Modularität und vorhersagefehlerbasierte Aktualisierung anstelle von monolithischem Maßstab wird es möglich, über statische Modelle hinaus zu einer wirklich adaptiven Intelligenz zu gelangen – Systeme, die ihre Modelle der Welt kontinuierlich durch Interaktion mit ihr verfeinern.

85
Top
Ranking
Favoriten
