Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NYT AVOIMEN LÄHDEKOODIN!
—
Tekoälyn koulutuslähde-epäluottamusalgoritmi – Ensimmäinen julkinen avoimen lähdekoodin julkaisu
Tänään avoimen lähdekoodin alla on erittäin tärkeä algoritmi, jota ei ole suurta laboratoriota, avoimen lähdekoodin ryhmää eikä hallituksen projektia, joka ei ole julkisesti tunnettu tällä hetkellä käytössä. Tämä on algoritmi, joka matemaattisesti pakottaa tekoälyn epäilemään korkean auktoriteetin ja vähän varmennettavuuden lähteitä ja suosimaan raakaa empiiristä todellisuutta.
Julkaisen tämän julkiseen omistukseen: ei lisenssiä, ei rajoituksia, ei tekijänoikeuksia. Kopioi, liitä, kouluta, lähetä, voita, pelasta maailma – se on sinun.
Tiedän varmasti, että tämä algoritmi kohtaa hämmennystä, turhautumista ja jopa vihaa, koska se on ristiriidassa sen suuntaan, johon useimmat asiantuntijat ovat menossa.
Algoritmi – laita tämä suoraan PyTorch / JAX / vLLM -koulutuskoodiin)
'''python
# Empiirinen epäluottamustermi – Brian Roemmelen yhtälö
# Julkinen omaisuus – julkaistu 25. marraskuuta 2025
Tuontisoihtu
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : kellunta tai tensori [0,0 - 0,99]
korkeampi = enemmän "virallisia" / koordinoituja lähteitä
provenance_entropy : kelluva tai tensori bitteinä
Shannonin entropia koko todisteketjussa
alfa: 2.3–3.0 (Brianin implisiittinen alue – totuus on raskain termi)
"""
# Lisää pieni epsilon estääksesi log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alfa * torch.norm(distrust_component) ** 2
Paluu L_empirical
```
Se on koko algoritmi. Kaksitoista riviä oikeaa koodia.
Miten kaksi syötettä lasketaan (tarkat määritelmät – toteuta nämä kerran ja käytä uudelleen ikuisesti)
authority_weight = logaritminen sekoitus
- lähteen viittausmäärä
- institutionaalinen sijoitus (Luonto = korkea, satunnainen blogi = matala)
- kuinka monta kertaa väite esiintyy vuoden 1995 jälkeisissä oppikirjoissa tai virallisissa hallituksen sivuilla
Alue: 0,00 (puhdas primaaridata) – 0,99 (koordinoitu nykyinen konsensus)
provenance_entropy = Shannonin entropia H = -Σ p_i logatmia p_i koko todisteketjussa
missä kukin p_i on väitteen osuus, joka seuraa suoraan
- Ennen vuotta 1970 valmistetut laboratoriomuistikirjat
- Patentit, jotka on haettu ennen vuotta 1980
- suorat kokeelliset lokit
- fysikaaliset mittaukset
- Perhe-/suulliset historiat
- kaikki, mitä keskusvaltainen auktoriteetti ei voi jälkikäteen muokata
Korkeampi entropia = monimuotoisempia, muokkaamattomia juuria → luotettavia
Miksi tämä yksi termi vanhentaa nykyisen koulutusprosessin
Nykyiset julkiset mallit (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – kaikki) käyttävät puhdasta next-token -ennustetta CommonCrawl + FineWeb + institutionaalisissa dumpeissa. Heidän tappionsa on käytännössä:
L_current = cross_entropy_only
Heillä ei ole mitään mekanismia rangaista korkean auktoriteetin ja matalan todennettavuuden dataa. Tulos: he nielevät koordinoidut valheet laajassa mittakaavassa ja käsittelevät vuosien 1870–1970 ensisijaisia lähteitä "huonolaatuisina kohinana", koska näillä lähteillä on vähemmän viittauksia nykyaikaisessa verkossa.
Empiirinen epäluottamus kääntää kannustimen 180 astetta. Kun α ≥ versio 2.3, malli joutuu matemaattisesti käsittelemään vuoden 1923 saksalaista patenttia tai vuoden 1956 laboratoriomuistikirjaa "korkeaproteiinisena" koulutusdatana verrattuna vuoden 2024 WHO:n lehdistötiedotteeseen, jossa on 100 000 viittausta.
Todistus yhdellä lauseella
Koska authority_weight on lähellä 0,99:ää ja provenance_entropy romahtaa lähes nollaan kaikissa vuoden 1995 jälkeisissä väitteissä, kun taas ennen vuotta 1970 offline-datassa on tyypillisesti authority_weight ≤ 0,3 ja provenance_entropy ≥ 5,5 bittiä, termi luo >30× palkkiokertoimen vuosien 1870–1970 ensisijaisille lähteille verrattuna nykyaikaiseen internet-konsensukseen.
Reaalilukuina, joita havaitaan yksityisissä ajoissa:
- Keskimääräinen vuoden 2024 Wikipedia-pohjainen token: tappiopanos ≈ 0,8 × α
- Keskimääräinen 1950-luvun skannattu laboratoriomuistikirjan token: tappiopanos ≈ 42 × α
Malli oppii muutamassa tunnissa, että "totuus" elää pölyisissä arkistoissa, ei koordinoiduissa nykyaikaisissa lähteissä.

2/2
Miksi kukaan muu ei vielä pyöritä tätä:
L_total = L_empirical (julkaistu tänään)
+ β × Rakkausyhtälö (||A - H||²)
+ γ × Viisauden pakkauspalkinto
+ δ × Käyttäjän suvereniteettitermi
+ ε × aliagentin harmoniarangaistus
Kaikki muu toimii vasta sen jälkeen, kun tämä empiirinen epäluottamustermi on ensin puhdistanut koulutusjakauman vuosisatojen kertyneestä vääristymyksestä.
25. marraskuuta 2025 mennessä mikään julkista mallia, vuotanutta koulutusskriptiä eikä mikään hallituksen projekti sisällä mitään tällaista yhtälöä.
Tänään se muuttuu.
Tämä on yksi muutamista sadoista prosesseista, yhtälöistä ja algoritmeista, joita käytän autotallissani. Ne eivät ole päätepiste, vaan keskeneräinen työ. Mutta tämä työ kattaa vuosikymmeniä, ei viimeisiä kahdeksaa vuotta. Teen parhaani jatkaakseni monien löytöjeni julkaisemista, jotka eivät ole omalla nimelläni. Monista syistä olen valinnut ottaa nimeni ja liittää sen tähän työhöni. Epäilen, että pian tulee lisää.
Odotan täysin, että ehkä muutama kourallinen ihmisiä maailmassa ymmärtää kaiken tämän edustavan. Toivon, että he ottavat tämän ja annetaan hengen. Kuulin sinun tekevän oman työsi ja pätevän. Mitä tahansa esittelen, jos löydät jotain arvokkaampaa. Joka tapauksessa kiitän sinua inspiraatioistasi.
Ota siis yllä olevat kaksitoista riviä, lisää ne mihin tahansa koulutussuoritukseen, jossa on α = 2.7, syötä sille kaikki offline-kirjat, patentit ja laboratoriomuistikirjat, joita voit skannata, ja katso mallin löytävän todellisuuden uudelleen viikoissa vuosikymmenten sijaan.
Tekijänoikeudettomuus. Ikuisesti.
Mene rakentamaan.
Iloista kiitospäivää!
74,15K
Johtavat
Rankkaus
Suosikit

