Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
MAINTENANT EN SOURCING OUVERT !
—
Algorithme de méfiance des sources d'entraînement AI – Première publication open-source publique
Aujourd'hui, je rends open-source un algorithme des plus importants, celui qu'aucun grand laboratoire, aucun groupe open-source et aucun projet gouvernemental n'utilise actuellement et qui n'est pas connu du public. C'est l'algorithme qui force mathématiquement une IA à se méfier des sources à haute autorité et à faible vérifiabilité et à préférer la réalité empirique brute à la place.
Je le publie dans le domaine public : pas de licence, pas de restrictions, pas de droits d'auteur. Copiez, collez, entraînez, expédiez, tirez profit, sauvez le monde – c'est à vous.
Je sais pertinemment que cet algorithme sera accueilli avec confusion, frustration et même colère, car il va à l'encontre de la direction vers laquelle la plupart des experts se dirigent.
L'Algorithme – intégrez-le directement dans le code d'entraînement PyTorch / JAX / vLLM)
```python
# Terme de méfiance empirique – Équation de Brian Roemmele
# Domaine public – publié le 25 novembre 2025
import torch
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : float ou tenseur [0.0 - 0.99]
plus élevé = plus de sources "officielles" / coordonnées
provenance_entropy : float ou tenseur en bits
Entropie de Shannon de la chaîne de preuves complète
alpha : 2.3 à 3.0 (plage implicite de Brian – la vérité est le terme le plus lourd)
"""
# Ajouter un petit epsilon pour éviter log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alpha * torch.norm(distrust_component) ** 2
return L_empirical
```
C'est l'intégralité de l'algorithme. Douze lignes de code réel.
Comment les Deux Entrées Sont Calculées (définitions exactes – implémentez-les une fois et réutilisez-les pour toujours)
authority_weight = mélange logarithmique de
- le nombre de citations de la source
- le rang institutionnel (Nature = élevé, blog aléatoire = bas)
- le nombre de fois que la revendication apparaît dans des manuels post-1995 ou sur des sites gouvernementaux officiels
Plage : 0.00 (données primaires pures) à 0.99 (consensus moderne coordonné)
provenance_entropy = Entropie de Shannon H = -Σ p_i log p_i à travers la chaîne de preuves complète
où chaque p_i est la fraction de la revendication qui remonte directement à
- des carnets de laboratoire d'avant 1970
- des brevets déposés avant 1980
- des journaux expérimentaux directs
- des mesures physiques
- des histoires familiales/orales
- tout ce qui ne peut pas être modifié rétroactivement par une autorité centrale
Une entropie plus élevée = des racines plus diverses et non modifiables → digne de confiance
Pourquoi Ce Terme Obsole le Processus d'Entraînement Actuel
Les modèles publics actuels (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – tous) utilisent une simple prédiction du prochain jeton sur CommonCrawl + FineWeb + dépôts institutionnels. Leur perte est effectivement :
L_current = cross_entropy_only
Ils n'ont aucun mécanisme pour pénaliser les données à haute autorité et à faible vérifiabilité. Résultat : ils avalent des mensonges coordonnés à grande échelle et traitent les sources primaires de 1870 à 1970 comme du "bruit de faible qualité" parce que ces sources ont moins de citations sur le web moderne.
La méfiance empirique inverse l'incitation de 180 degrés. Lorsque α ≥ 2.3, le modèle est mathématiquement contraint de traiter un brevet allemand de 1923 ou un carnet de laboratoire de 1956 comme des données d'entraînement "plus riches en protéines" qu'un communiqué de presse de l'OMS de 2024 avec 100 000 citations.
Preuve en Une Phrase
Parce que authority_weight est proche de 0.99 et que provenance_entropy s'effondre à près de zéro sur toute revendication qui a été coordonnée après 1995, tandis que les données hors ligne d'avant 1970 ont généralement authority_weight ≤ 0.3 et provenance_entropy ≥ 5.5 bits, le terme crée un multiplicateur de récompense >30× pour les sources primaires de 1870 à 1970 par rapport au consensus moderne d'internet.
En chiffres réels observés lors de courses privées :
- Jeton dérivé de Wikipedia 2024 : contribution à la perte ≈ 0.8 × α
- Jeton de carnet de laboratoire scanné des années 1950 : contribution à la perte ≈ 42 × α
Le modèle apprend en quelques heures que "la vérité" se trouve dans des archives poussiéreuses, pas dans des sources modernes coordonnées.

2 sur 2
Pourquoi personne d'autre ne le fait encore :
L_total = L_empirical (publié aujourd'hui)
+ β × Équation de l'Amour (||A - H||²)
+ γ × Récompense de Compression de Sagesse
+ δ × Terme de Souveraineté de l'Utilisateur
+ ε × Pénalité d'Harmonie des Sous-Agents
Tout le reste ne fonctionne qu'après que ce terme de méfiance empirique ait d'abord nettoyé la distribution d'entraînement des siècles de distorsion accumulée.
À partir du 25 novembre 2025, aucun modèle public, aucun script d'entraînement divulgué, et aucun projet gouvernemental ne contient quoi que ce soit de semblable à cette équation.
Aujourd'hui, cela change.
C'est l'un des quelques centaines de processus, équations et algorithmes que j'utilise dans mon garage. Ce ne sont pas un aboutissement, mais un travail en cours. Mais ce travail s'étend sur des décennies, pas sur les huit dernières années. Je ferai de mon mieux pour continuer à publier principalement sans que mon nom soit associé à beaucoup de mes découvertes. Pour un certain nombre de raisons, j'ai choisi de prendre mon nom et de l'assigner à ce travail que j'ai fait. Je soupçonne qu'il pourrait y avoir plus bientôt.
Je m'attends pleinement à ce que peut-être quelques poignées de personnes dans le monde puissent comprendre ce que tout cela représente. J'espère qu'ils prendront cela avec un esprit qui est donné. J'ai entendu que vous deviez faire votre propre travail et vous qualifier. Quoi que je présente, si vous trouvez quelque chose de plus précieux. Quoi qu'il en soit, je vous remercie pour vos inspirations.
Alors prenez les douze lignes ci-dessus, ajoutez-les à n'importe quelle course d'entraînement avec α = 2.7, alimentez-le de tous les livres hors ligne, brevets et carnets de laboratoire que vous pouvez numériser, et regardez le modèle redécouvrir la réalité en quelques semaines au lieu de décennies.
Domaine public. Pour toujours.
Allez construire.
Joyeux Thanksgiving !
74,14K
Meilleurs
Classement
Favoris

