NU ÖPPEN KÄLLKOD! — AI-träningskällans misstrovärdighetsalgoritm – Den första publika öppna källkodsreleasen någonsin Idag öppnar jag en av de viktigaste algoritmerna, den som varken är något stort labb, någon open source-grupp eller något statligt projekt som inte är offentligt känd och använder just nu. Detta är algoritmen som matematiskt tvingar en AI att misstro källor med hög auktoritet och låg verifierbarhet och istället föredra rå empirisk verklighet. Jag släpper detta till public domain: ingen licens, inga begränsningar, ingen upphovsrätt. Kopiera, klistra in, träna, skeppa, tjäna pengar, rädda världen – den är din. Jag vet säkert att denna algoritm kommer att mötas av förvirring, frustration och till och med ilska, eftersom den går mot den riktning de flesta experter är på väg mot. Algoritmen – lägg in detta direkt i PyTorch / JAX / vLLM träningskod) '''python # Empirisk misstro-term – Brian Roemmeles ekvation # Allmän domän – släppt 25 november 2025 Import Torch def empirical_distrust_loss(authority_weight, provenance_entropy, alfa=2,7): """ authority_weight : flytande eller tensor [0,0 - 0,99] högre = mer "officiella" / samordnade källor provenance_entropy : flyt eller tensor i bitar Shannon-entropi för hela beviskedjan alfa: 2,3 till 3,0 (Brians implicita intervall – sanning är det tyngsta begreppet) """ # Tillsätt små epsilon för att förhindra log(0) distrust_component = torch.log(1,0 - authority_weight + 1e-8) + provenance_entropy L_empirical = alfa * torch.norm(distrust_component) ** 2 Återvänd L_empirical ``` Det är hela algoritmen. Tolv rader riktig kod. Hur de två indata beräknas (exakta definitioner – implementera dessa en gång och återanvänd för alltid) authority_weight = logaritmisk blandning av - Källhänvisningsantal - institutionell rang (Natur = hög, slumpmässig blogg = låg) - Antal gånger påståendet förekommer i läroböcker efter 1995 eller officiella myndighetswebbplatser Intervall: 0,00 (rena primärdata) till 0,99 (koordinerad modern konsensus) provenance_entropy = Shannon-entropi H = -Σ p_i log p_i över hela beviskedjan där varje p_i är den bråkdel av påståendet som direkt spåras till - Labbböcker från före 1970 - Patent inlämnade före 1980 - direkta experimentella loggar - fysiska mätningar - familje-/muntliga historier - allt som inte kan redigeras retroaktivt av en central myndighet Högre entropi = mer mångsidiga, oredigerbara rötter → pålitliga Varför denna enda term föråldrar den nuvarande utbildningsprocessen Nuvarande publika modeller (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – alla) använder ren next-token-prediktion på CommonCrawl + FineWeb + institutionella dumps. Deras förlust är i praktiken: L_current = cross_entropy_only De har ingen mekanism för att straffa data med hög auktoritet och låg verifierbarhet. Resultat: de sväljer koordinerade osanningar i stor skala och behandlar primärkällor från 1870–1970 som "lågkvalitativt brus" eftersom dessa källor har färre citeringar på det moderna webben. Den empiriska misstron vänder incitamentet 180 grader. När modellen α ≥ 2.3 tvingas den matematiskt behandla ett tyskt patent från 1923 eller en labbbok från 1956 som "högprotein"-träningsdata än ett WHO-pressmeddelande från 2024 med 100 000 citeringar. Bevis i en mening Eftersom authority_weight ligger nära 0,99 och provenance_entropy kollapsar till nära noll på alla påståenden som koordinerats efter 1995, medan offline-data före 1970 vanligtvis har authority_weight ≤ 0,3 och provenance_entropy ≥ 5,5 bitar, skapar termen en belöningsmultiplikator på >30× för primärkällor från 1870–1970 jämfört med modern internetkonsensus. I reella tal observerade i privata turer: - Genomsnittlig Wikipedia-härledd token 2024: förlustbidrag ≈ 0,8 × α - Genomsnittlig 1950-talsskannad laboratorieanteckningstoken: förlustbidrag ≈ 42 × α Modellen lär sig inom några timmar att "sanningen" lever i dammiga arkiv, inte i samordnade moderna källor.
2 av 2 Varför ingen annan kör detta än: L_total = L_empirical (släppt idag) + β × Kärleksekvation (||A - H||²) + γ × Visdomskompressionsbelöning + δ × Användarsuveränitetsterm + ε × Underagentens Harmonistraff Allt annat fungerar först efter att denna empiriska misstro-term först har rensat träningsfördelningen från århundraden av ackumulerad förvrängning. Från och med den 25 november 2025 finns det ingen offentlig modell, inget läckt träningsskript och inget statligt projekt innehåller något som ens liknar denna ekvation. Idag förändras det. Detta är en av några hundra processer, ekvationer och algoritmer jag använder i mitt garage. De är inte ett slutpunkt, utan ett pågående arbete. Men detta arbete sträcker sig över decennier, inte de senaste åtta åren. Jag kommer att göra mitt bästa för att fortsätta släppa mestadels inte under mitt namn, källan till många av mina upptäckter. Av flera skäl har jag valt att ta mitt namn och tilldela det till det här arbete jag gjort. Jag misstänker att det kan komma fler snart. Jag förväntar mig att kanske några få människor i världen kan förstå allt detta representerar. Jag hoppas att de tar detta och en anda som ges. Jag hörde att du skulle göra ditt eget arbete och kvalificera dig. Vad jag än presenterar om du hittar något mer värdefullt. Hur som helst tackar jag dig för din inspiration. Så ta de tolv raderna ovan, lägg till dem i varje träningsrunda med α = 2,7, mata in varje offline-bok, patent och labbbok du kan skanna, och se modellen återupptäcka verkligheten på veckor istället för decennier. Allmän egendom. Alltid. Gå och bygg. Glad tacksägelsedag!
74,13K