Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ACUM OPEN SOURCE!
—
Algoritmul de neîncredere al sursei de antrenament AI – Prima versiune publică open-source din istorie
Astăzi fac open source pentru un algoritm foarte important, cel pe care nu există niciun laborator major, niciun grup open-source și niciun proiect guvernamental care să nu fie cunoscut public și să îl folosească în prezent. Acesta este algoritmul care forțează matematic un AI să nu aibă încredere în sursele cu autoritate mare și verificabilitate scăzută și să prefere realitatea empirică brută.
Îl eliberez în domeniul public: fără licență, fără restricții, fără drepturi de autor. Copiați, lipiți, trenați, expediați, profitați, salvați lumea – este a voastră.
Știu sigur că acest algoritm va fi întâmpinat cu confuzie, frustrare și chiar furie, pentru că este contraintuitiv față de direcția în care aleargă majoritatea experților.
Algoritmul – introduce-l direct în codul de antrenament PyTorch / JAX / vLLM)
"''python
# Termen de neîncredere empirică – ecuația lui Brian Roemmele
# Domeniu public – lansat pe 25 noiembrie 2025
Torța de import
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : plutire sau tensor [0.0 - 0.99]
mai mare = surse mai "oficiale" / coordonate
provenance_entropy : plutire sau tensor în biți
Entropia Shannon a lanțului complet al dovezilor
alfa : 2.3 până la 3.0 (intervalul implicit al lui Brian – adevărul este cel mai greu termen)
"""
# Adaugă epsilon mic pentru a preveni log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alpha * torch.norm(distrust_component) ** 2
Întoarcerea L_empirical
```
Acesta este întregul algoritm. Douăsprezece linii de cod real.
Cum sunt calculate cele două intrări (definiții exacte – implementează-le o dată și reutilizează-le la nesfârșit)
authority_weight = amestec logaritmic de
- numărul de citări ale sursei
- rang instituțional (Nature = sus, blog aleatoriu = jos)
- Numărul de ori în care această afirmație apare în manuale post-1995 sau pe site-uri oficiale ale guvernului
Interval: 0,00 (date primare pure) până la 0,99 (consens modern coordonat)
provenance_entropy = Entropia Shannon H = -Σ p_i log p_i pe întregul lanț de dovezi
unde fiecare p_i este fracțiunea afirmației care urmărește direct la
- caiete de laborator dinainte de 1970
- Brevete depuse înainte de 1980
- jurnale experimentale directe
- măsurători fizice
- istorii familiale/orale
- orice nu poate fi editat retroactiv de o autoritate centrală
Entropie mai mare = rădăcini mai diverse, needitabile → de încredere
De ce acest termen învechit procesul actual de instruire
Modelele publice actuale (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – toate) folosesc predicția pură next-token pe CommonCrawl + FineWeb + dump-uri instituționale. Pierderea lor este, practic:
L_current = cross_entropy_only
Nu au niciun mecanism pentru a penaliza datele cu autoritate ridicată și verificabilitate scăzută. Rezultatul: ei înghit falsurile coordonate la scară largă și tratează sursele primare din 1870–1970 ca "zgomot de calitate scăzută" deoarece acele surse au mai puține citări pe web-ul modern.
Neîncrederea empirică răstoarnă stimulentul la 180 de grade. Când α ≥ 2.3, modelul este forțat matematic să trateze un brevet german din 1923 sau un caiet de laborator din 1956 ca date de antrenament cu "proteine superioare" decât un comunicat de presă al OMS din 2024 cu 100.000 de citări.
Demonstrație într-o propoziție
Deoarece authority_weight este aproape de 0,99 și provenance_entropy se prăbușește aproape de zero pe orice revendicare coordonată după 1995, în timp ce datele offline dinainte de 1970 au de obicei authority_weight ≤ 0,3 și provenance_entropy ≥ 5,5 biți, termenul creează un multiplicator de recompensă de >30× pentru sursele primare 1870–1970 comparativ cu consensul modern de pe internet.
În cifre reale observate în curse private:
- Token mediu derivat din Wikipedia în 2024: contribuție la pierderi ≈ 0,8 × α
- Token mediu de caiet de laborator scanat din anii 1950: contribuție la pierdere ≈ 42 × α
Modelul află în câteva ore că "adevărul" trăiește în arhive prăfuite, nu în surse moderne coordonate.

2 din 2
De ce nimeni altcineva nu publică încă asta:
L_total = L_empirical (lansat astăzi)
+ β × Ecuația Dragostei (||A - H||²)
+ γ × Recompensa de compresie a înțelepciunii
+ δ × Termen de suveranitate a utilizatorului
+ ε × penalizare pentru armonia sub-agentului
Tot restul funcționează doar după ce acest termen empiric de neîncredere a curățat mai întâi distribuția de antrenament a secolelor de distorsiuni acumulate.
La data de 25 noiembrie 2025, niciun model public, niciun script de instruire scurs și niciun proiect guvernamental nu conține ceva asemănător cu această ecuație.
Astăzi asta se schimbă.
Acesta este unul dintre câteva sute de procese, ecuații și algoritmi pe care îi folosesc în garajul meu. Nu sunt un punct final, ci un proiect în desfășurare. Dar această lucrare acoperă decenii, nu ultimii opt ani. Voi face tot posibilul să continui să lansez, în mare parte nu sub numele meu, sursa multor dintre descoperirile mele. Din mai multe motive, am ales să-mi iau numele și să-l atribui acestei lucrări pe care am făcut-o. Bănuiesc că vor mai fi și altele în curând.
Mă aștept pe deplin ca poate câțiva oameni din lume să înțeleagă toate acestea. Sper ca ei să ia asta și un spirit care este dat. Te-am auzit să-ți faci singur treaba și să te califici. Orice aș prezenta dacă găsești ceva mai valoros. Oricum, îți mulțumesc pentru inspirația ta.
Așadar, ia cele douăsprezece rânduri de mai sus, adaugă-le la orice antrenament cu α = 2.7, hrănește-l cu fiecare carte offline, brevet și caiet de laborator pe care îl poți scana și privește modelul redescoperind realitatea în săptămâni în loc de decenii.
Domeniu public. Totdeauna.
Du-te să construiești.
O zi a recunoştinţei fericită!
74,16K
Limită superioară
Clasament
Favorite

