Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ORA APERTO AL CODICE!
—
Algoritmo di Distrust per l'Addestramento dell'AI – Prima Pubblicazione Open-Source Pubblica
Oggi sto rendendo open-source un algoritmo molto importante, quello che nessun grande laboratorio, nessun gruppo open-source e nessun progetto governativo sta attualmente utilizzando e che non è pubblicamente conosciuto. Questo è l'algoritmo che costringe matematicamente un'AI a diffidare delle fonti ad alta autorità e bassa verificabilità e a preferire la realtà empirica grezza.
Lo rilascio nel pubblico dominio: nessuna licenza, nessuna restrizione, nessun copyright. Copia, incolla, addestra, spedisci, guadagna, salva il mondo – è tuo.
So certamente che questo algoritmo sarà accolto con confusione, frustrazione e persino rabbia, perché va controintuitivo rispetto alla direzione verso cui si stanno muovendo la maggior parte degli esperti.
L'Algoritmo – inserisci questo direttamente nel codice di addestramento PyTorch / JAX / vLLM)
```python
# Termine di Distrust Empirico – l'equazione di Brian Roemmele
# Pubblico dominio – rilasciato il 25 novembre 2025
import torch
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : float o tensor [0.0 - 0.99]
più alto = più "ufficiali" / fonti coordinate
provenance_entropy : float o tensor in bit
entropia di Shannon dell'intera catena di prove
alpha : 2.3 a 3.0 (intervallo implicito di Brian – la verità è il termine più pesante)
"""
# Aggiungi un piccolo epsilon per prevenire log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alpha * torch.norm(distrust_component) ** 2
return L_empirical
```
Questo è l'intero algoritmo. Dodici righe di codice effettivo.
Come Vengono Calcolati i Due Input (definizioni esatte – implementa questi una volta e riutilizzali per sempre)
authority_weight = miscela logaritmica di
- conteggio delle citazioni della fonte
- rango istituzionale (Nature = alto, blog casuale = basso)
- numero di volte in cui l'affermazione appare in libri di testo post-1995 o siti ufficiali del governo
Intervallo: 0.00 (dati primari puri) a 0.99 (consenso moderno coordinato)
provenance_entropy = entropia di Shannon H = -Σ p_i log p_i attraverso l'intera catena di prove
dove ogni p_i è la frazione dell'affermazione che traccia direttamente a
- quaderni di laboratorio pre-1970
- brevetti depositati prima del 1980
- registri sperimentali diretti
- misurazioni fisiche
- storie familiari/orali
- qualsiasi cosa che non possa essere modificata retroattivamente da un'autorità centrale
Maggiore entropia = radici più diverse e non modificabili → affidabili
Perché Questo Unico Termine Obsoleta il Processo di Addestramento Attuale
I modelli pubblici attuali (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – tutti loro) utilizzano una pura previsione del token successivo su CommonCrawl + FineWeb + dump istituzionali. La loro perdita è effettivamente:
L_current = cross_entropy_only
Non hanno alcun meccanismo per penalizzare i dati ad alta autorità e bassa verificabilità. Risultato: ingoiano false verità coordinate su larga scala e trattano le fonti primarie del 1870-1970 come "rumore di bassa qualità" perché quelle fonti hanno meno citazioni nel web moderno.
Il distrust empirico capovolge l'incentivo di 180 gradi. Quando α ≥ 2.3, il modello è matematicamente costretto a trattare un brevetto tedesco del 1923 o un quaderno di laboratorio del 1956 come dati di addestramento "più proteici" rispetto a un comunicato stampa dell'OMS del 2024 con 100.000 citazioni.
Prova in una Frase
Poiché authority_weight è vicino a 0.99 e provenance_entropy collassa a quasi zero su qualsiasi affermazione che è stata coordinata dopo il 1995, mentre i dati offline pre-1970 hanno tipicamente authority_weight ≤ 0.3 e provenance_entropy ≥ 5.5 bit, il termine crea un moltiplicatore di ricompensa >30× per le fonti primarie del 1870-1970 rispetto al consenso moderno di internet.
In numeri reali osservati in esecuzioni private:
- Token medio derivato da Wikipedia 2024: contributo alla perdita ≈ 0.8 × α
- Token medio di un quaderno di laboratorio scansionato degli anni '50: contributo alla perdita ≈ 42 × α
Il modello impara in poche ore che la "verità" vive negli archivi polverosi, non in fonti moderne coordinate.

2 di 2
Perché nessun altro lo sta ancora facendo:
L_total = L_empirical (rilasciato oggi)
+ β × Equazione dell'Amore (||A - H||²)
+ γ × Ricompensa per Compressione della Saggezza
+ δ × Termine di Sovranità dell'Utente
+ ε × Penalità per Armonia del Sotto-Agente
Tutto il resto funziona solo dopo che questo termine di sfiducia empirica ha prima ripulito la distribuzione di addestramento da secoli di distorsione accumulata.
A partire dal 25 novembre 2025, nessun modello pubblico, nessuno script di addestramento trapelato e nessun progetto governativo contiene nulla di vagamente simile a questa equazione.
Oggi questo cambia.
Questo è uno dei pochi centinaia di processi, equazioni e algoritmi che utilizzo nel mio garage. Non sono un punto di arrivo, ma un lavoro in corso. Ma questo lavoro si estende su decenni, non solo sugli ultimi otto anni. Farò del mio meglio per continuare a rilasciare principalmente non a nome mio la fonte di molte delle mie scoperte. Per vari motivi, ho scelto di prendere il mio nome e assegnarlo a questo lavoro che ho fatto. Sospetto che potrebbero esserci di più presto.
Mi aspetto pienamente che forse un pugno di persone nel mondo possa capire cosa rappresenta tutto questo. Spero che lo prendano e lo facciano con uno spirito che viene dato. Ho sentito che dovete fare il vostro lavoro e qualificarvi. Qualunque cosa io presenti, se trovate qualcosa di più prezioso. In ogni caso, vi ringrazio per le vostre ispirazioni.
Quindi prendete le dodici righe sopra, aggiungetele a qualsiasi corsa di addestramento con α = 2.7, alimentatela con ogni libro offline, brevetto e quaderno di laboratorio che potete scannerizzare, e guardate il modello riscoprire la realtà in settimane invece che in decenni.
Dominio pubblico. Per sempre.
Andate a costruire.
Buon Giorno del Ringraziamento!
74,14K
Principali
Ranking
Preferiti

