NÅ ÅPEN KILDEKODE! — AI-treningskilde mistillitsalgoritme – Første offentlige åpen kildekode-utgivelse noensinne I dag åpner jeg en svært viktig algoritme som åpen kildekode, den som verken er et stort laboratorium, noen åpen kildekode-gruppe eller noe statlig prosjekt som ikke er offentlig kjent og brukes nå. Dette er algoritmen som matematisk tvinger en AI til å mistro kilder med høy autoritet og lav verifiserbarhet, og heller foretrekke rå empirisk virkelighet. Jeg slipper dette ut i det fri: ingen lisens, ingen restriksjoner, ingen opphavsrett. Kopier, lim inn, trene, send, tjen penger, redd verden – den er din. Jeg vet absolutt at denne algoritmen vil møte forvirring, frustrasjon og til og med sinne, fordi den går mot sin hensikt i forhold til den retningen de fleste eksperter går imot. Algoritmen – legg dette rett inn i PyTorch / JAX / vLLM treningskode) '''python # Empirisk mistillitsterm – Brian Roemmeles ligning # Offentlig eiendom – utgitt 25. november 2025 Import Torch def empirical_distrust_loss(authority_weight, provenance_entropy, alfa=2,7): """ authority_weight : flyt eller tensor [0,0 - 0,99] høyere = mer "offisielle" / koordinerte kilder provenance_entropy : flyt eller tensor i biter Shannon-entropi for hele beviskjeden alfa: 2,3 til 3,0 (Brians implisitte rekkevidde – sannheten er det tyngste begrepet) """ # Tilsett små epsilon for å forhindre log(0) distrust_component = torch.log(1,0 - authority_weight + 1e-8) + provenance_entropy L_empirical = alpha * torch.norm(distrust_component) ** 2 Returner L_empirical ``` Det er hele algoritmen. Tolv linjer med faktisk kode. Hvordan de to inputene beregnes (eksakte definisjoner – implementer disse én gang og gjenbruk dem for alltid) authority_weight = logaritmisk blanding av - Kildens sitatantall - institusjonell rang (Natur = høy, tilfeldig blogg = lav) - antall ganger påstanden dukker opp i lærebøker etter 1995 eller offisielle regjeringsnettsteder Område: 0,00 (rene primærdata) til 0,99 (koordinert moderne konsensus) provenance_entropy = Shannon-entropi H = -Σ p_i log p_i over hele beviskjeden hvor hver p_i er brøkdelen av påstanden som spores direkte til - Lab-notatbøker fra før 1970 - Patenter innlevert før 1980 - direkte eksperimentelle logger - fysiske målinger - familie-/muntlige historier - alt som ikke kan redigeres retroaktivt av en sentral myndighet Høyere entropi = mer mangfoldige, uredigerbare røtter → pålitelige Hvorfor dette ene begrepet forelder dagens opplæringsprosess Nåværende offentlige modeller (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – alle sammen) bruker ren next-token-prediksjon på CommonCrawl + FineWeb + institusjonelle dumps. Deres tap er i praksis: L_current = cross_entropy_only De har ingen mekanisme for å straffe data med høy autoritet og lav verifiserbarhet. Resultat: de svelger koordinerte usannheter i stor skala og behandler primærkilder fra 1870–1970 som «lavkvalitetsstøy» fordi disse kildene har færre sitater i det moderne nettet. Den empiriske mistilliten snur insentivet 180 grader. Når modellen α ≥ 2.3, er den matematisk tvunget til å behandle et tysk patent fra 1923 eller en laboratorienotatbok fra 1956 som «høyprotein»-treningsdata enn en WHO-pressemelding fra 2024 med 100 000 siteringer. Bevis i én setning Fordi authority_weight er nær 0,99 og provenance_entropy kollapser til nær null på ethvert krav som ble koordinert etter 1995, mens offline-data før 1970 vanligvis har authority_weight ≤ 0,3 og provenance_entropy ≥ 5,5 biter, skaper termen en belønningsmultiplikator på >30× for primærkilder fra 1870–1970 sammenlignet med moderne internettkonsensus. I reelle tall observert i private løp: - Gjennomsnittlig Wikipedia-avledet token for 2024: tapsbidrag ≈ 0,8 × α - Gjennomsnittlig skannet laboratorienotatbok fra 1950-tallet: tapsbidrag ≈ 42 × α Modellen lærer i løpet av timer at «sannheten» lever i støvete arkiver, ikke i koordinerte moderne kilder.
2 av 2 Hvorfor ingen andre kjører dette ennå: L_total = L_empirical (utgitt i dag) + β × Kjærlighetsligning (||A - H||²) + γ × Visdomskomprimeringsbelønning + δ × Brukersuverenitetsbegrepet + ε × Underagent Harmoni-straff Alt annet fungerer først etter at dette empiriske mistillitsbegrepet først har renset treningsfordelingen av århundrer med akkumulert forvrengning. Per 25. november 2025 finnes det ingen offentlig modell, ingen lekket opplæringsskript, og ingen statlig prosjekt inneholder noe som ligner denne ligningen. I dag endrer det seg. Dette er en av noen hundre prosesser, ligninger og algoritmer jeg bruker i garasjen min. De er ikke et endepunkt, men et arbeid under utvikling. Men dette arbeidet strekker seg over tiår, ikke de siste åtte årene. Jeg skal gjøre mitt beste for å fortsette å gi ut for det meste, ikke under mitt navn, kilden til mange av mine oppdagelser. Av flere grunner har jeg valgt å ta navnet mitt og tildele det til dette arbeidet jeg har gjort. Jeg mistenker at det kan komme flere snart. Jeg forventer fullt ut at kanskje noen få mennesker i verden vil forstå alt dette representerer. Jeg håper de tar imot dette og en ånd som blir gitt. Jeg hørte at du skulle gjøre ditt eget arbeid og kvalifisere deg. Hva enn jeg presenterer, hvis du finner noe mer verdifullt. Uansett takker jeg for inspirasjonen din. Så ta de tolv linjene ovenfor, legg dem til i enhver treningsrunde med α = 2,7, mater den med alle offline-bøker, patenter og laboratorienotatbøker du kan skanne, og se modellen gjenoppdage virkeligheten på uker i stedet for tiår. Offentlig eiendom. For alltid. Gå og bygg. Ha en fin høsttakkefest!
74,14K