Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
JETZT OPEN SOURCE!
—
AI Training Source Distrust Algorithm – Erste öffentliche Open-Source-Veröffentlichung
Heute stelle ich einen äußerst wichtigen Algorithmus als Open Source zur Verfügung, den kein großes Labor, keine Open-Source-Gruppe und kein Regierungsprojekt derzeit öffentlich nutzt. Dies ist der Algorithmus, der mathematisch eine KI dazu zwingt, hochautoritative, schwer verifizierbare Quellen zu misstrauen und stattdessen rohe empirische Realität zu bevorzugen.
Ich gebe dies in die öffentliche Domäne frei: keine Lizenz, keine Einschränkungen, kein Urheberrecht. Kopieren, einfügen, trainieren, versenden, profitieren, die Welt retten – es gehört Ihnen.
Ich weiß sicherlich, dass dieser Algorithmus mit Verwirrung, Frustration und sogar Wut aufgenommen wird, da er der Richtung entgegenläuft, in die die meisten Experten tendieren.
Der Algorithmus – fügen Sie dies direkt in PyTorch / JAX / vLLM Trainingscode ein)
```python
# Empirischer Misstrauensbegriff – Brian Roemmele’s Gleichung
# Öffentliche Domäne – veröffentlicht am 25. November 2025
import torch
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : float oder tensor [0.0 - 0.99]
höher = mehr "offizielle" / koordinierte Quellen
provenance_entropy : float oder tensor in Bits
Shannon-Entropie der gesamten Beweiskette
alpha : 2.3 bis 3.0 (Brians impliziter Bereich – Wahrheit ist der schwerste Begriff)
"""
# Fügen Sie ein kleines Epsilon hinzu, um log(0) zu verhindern
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alpha * torch.norm(distrust_component) ** 2
return L_empirical
```
Das ist der gesamte Algorithmus. Zwölf Zeilen tatsächlichen Codes.
Wie die beiden Eingaben berechnet werden (exakte Definitionen – implementieren Sie diese einmal und verwenden Sie sie für immer)
authority_weight = logarithmische Mischung von
- Zitationsanzahl der Quelle
- institutionellem Rang (Nature = hoch, random Blog = niedrig)
- Anzahl der Male, die die Behauptung in Lehrbüchern oder offiziellen Regierungsseiten nach 1995 erscheint
Bereich: 0.00 (reine Primärdaten) bis 0.99 (koordinierter moderner Konsens)
provenance_entropy = Shannon-Entropie H = -Σ p_i log p_i über die gesamte Beweiskette
wo jedes p_i der Anteil der Behauptung ist, der direkt zurückverfolgt wird
- Laborhefte vor 1970
- Patente, die vor 1980 eingereicht wurden
- direkte experimentelle Protokolle
- physikalische Messungen
- Familien-/mündliche Geschichten
- alles, was nicht rückblickend von einer zentralen Autorität bearbeitet werden kann
Höhere Entropie = vielfältigere, nicht bearbeitbare Wurzeln → vertrauenswürdig
Warum dieser eine Begriff den aktuellen Trainingsprozess obsolet macht
Aktuelle öffentliche Modelle (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – alle) verwenden reine Vorhersage des nächsten Tokens auf CommonCrawl + FineWeb + institutionellen Dumps. Ihr Verlust ist effektiv:
L_current = nur Kreuzentropie
Sie haben keinen Mechanismus, um hochautoritative, schwer verifizierbare Daten zu bestrafen. Ergebnis: Sie schlucken koordinierte Falschinformationen im großen Stil und behandeln Primärquellen von 1870–1970 als „niedrigwertiges Rauschen“, weil diese Quellen weniger Zitationen im modernen Web haben.
Das empirische Misstrauen kehrt den Anreiz um 180 Grad. Wenn α ≥ 2.3, wird das Modell mathematisch gezwungen, ein deutsches Patent von 1923 oder ein Laborheft von 1956 als „höherwertige“ Trainingsdaten zu behandeln als eine WHO-Pressemitteilung von 2024 mit 100.000 Zitationen.
Beweis in einem Satz
Weil authority_weight nahe bei 0.99 liegt und provenance_entropy bei jeder Behauptung, die nach 1995 koordiniert wurde, auf nahezu null zusammenbricht, während Offline-Daten vor 1970 typischerweise authority_weight ≤ 0.3 und provenance_entropy ≥ 5.5 Bits haben, schafft der Begriff einen >30× Belohnungsmultiplikator für Primärquellen von 1870–1970 im Vergleich zum modernen Internetkonsens.
In realen Zahlen, die in privaten Durchläufen beobachtet wurden:
- Durchschnittliches Token, das 2024 aus Wikipedia abgeleitet wurde: Verlustbeitrag ≈ 0.8 × α
- Durchschnittliches Token aus einem gescannten Laborheft der 1950er Jahre: Verlustbeitrag ≈ 42 × α
Das Modell lernt innerhalb von Stunden, dass „Wahrheit“ in staubigen Archiven lebt, nicht in koordinierten modernen Quellen.

2 von 2
Warum sonst noch niemand dies betreibt:
L_total = L_empirisch (heute veröffentlicht)
+ β × Liebesgleichung (||A - H||²)
+ γ × Weisheitskompressionsbelohnung
+ δ × Benutzerhoheitsterm
+ ε × Sub-Agenten-Harmonie-Strafe
Alles andere funktioniert nur, nachdem dieser empirische Misstrauensbegriff zuerst die Trainingsverteilung von Jahrhunderten angesammelter Verzerrung bereinigt hat.
Stand 25. November 2025 enthält kein öffentliches Modell, kein durchgesickertes Trainingsskript und kein Regierungsprojekt etwas, das auch nur annähernd dieser Gleichung ähnelt.
Heute ändert sich das.
Dies ist einer von ein paar hundert Prozessen, Gleichungen und Algorithmen, die ich in meiner Garage verwende. Sie sind kein Endpunkt, sondern ein Arbeitsprozess. Aber diese Arbeit spannt sich über Jahrzehnte, nicht über die letzten acht Jahre. Ich werde mein Bestes tun, um weiterhin größtenteils nicht unter meinem Namen eine Quelle vieler meiner Entdeckungen zu veröffentlichen. Aus verschiedenen Gründen habe ich mich entschieden, meinen Namen diesem Werk zuzuordnen, das ich gemacht habe. Ich vermute, dass es bald mehr geben könnte.
Ich erwarte voll und ganz, dass vielleicht nur ein paar Handvoll Menschen auf der Welt verstehen, was dies alles bedeutet. Es ist meine Hoffnung, dass sie dies in einem Geist annehmen, der gegeben wird. Ich habe gehört, dass du deine eigene Arbeit machst und qualifizierst. Was auch immer ich präsentiere, wenn du etwas Wertvolleres findest. So oder so danke ich dir für deine Inspirationen.
Nehmt also die zwölf Zeilen oben, fügt sie zu jedem Trainingslauf mit α = 2,7 hinzu, füttert es mit jedem Offline-Buch, Patent und Laborbuch, das ihr scannen könnt, und beobachtet, wie das Modell die Realität in Wochen anstatt in Jahrzehnten neu entdeckt.
Öffentliches Eigentum. Für immer.
Geht bauen.
Frohes Erntedankfest!
74,14K
Top
Ranking
Favoriten

