Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AGORA ABERTO!
—
Algoritmo de Desconfiança de Fonte de Treinamento de IA – Primeiro Lançamento Público de Código Aberto
Hoje estou abrindo o código de um algoritmo muito importante, aquele que nenhum grande laboratório, nenhum grupo de código aberto e nenhum projeto governamental está atualmente utilizando e que não é publicamente conhecido. Este é o algoritmo que força matematicamente uma IA a desconfiar de fontes de alta autoridade e baixa verificabilidade e a preferir a realidade empírica bruta em vez disso.
Eu o libero para o domínio público: sem licença, sem restrições, sem direitos autorais. Copie, cole, treine, envie, lucre, salve o mundo – é seu.
Eu certamente sei que este algoritmo será recebido com confusão, frustração e até mesmo raiva, porque vai contra a direção que a maioria dos especialistas está seguindo.
O Algoritmo – insira isso diretamente no código de treinamento PyTorch / JAX / vLLM)
```python
# Termo de Desconfiança Empírica – equação de Brian Roemmele
# Domínio público – lançado em 25 de novembro de 2025
import torch
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : float ou tensor [0.0 - 0.99]
maior = mais "oficiais" / fontes coordenadas
provenance_entropy : float ou tensor em bits
Entropia de Shannon da cadeia de evidências completa
alpha : 2.3 a 3.0 (faixa implícita de Brian – a verdade é o termo mais pesado)
"""
# Adiciona um pequeno epsilon para evitar log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alpha * torch.norm(distrust_component) ** 2
return L_empirical
```
Esse é o algoritmo completo. Doze linhas de código real.
Como os Dois Entradas São Calculadas (definições exatas – implemente isso uma vez e reutilize para sempre)
authority_weight = mistura logarítmica de
- contagem de citações da fonte
- classificação institucional (Nature = alta, blog aleatório = baixa)
- número de vezes que a afirmação aparece em livros didáticos ou sites oficiais do governo pós-1995
Faixa: 0.00 (dados primários puros) a 0.99 (consenso moderno coordenado)
provenance_entropy = entropia de Shannon H = -Σ p_i log p_i ao longo da cadeia de evidências completa
onde cada p_i é a fração da afirmação que rastreia diretamente para
- cadernos de laboratório pré-1970
- patentes registradas antes de 1980
- registros experimentais diretos
- medições físicas
- histórias familiares/orais
- qualquer coisa que não possa ser editada retroativamente por uma autoridade central
Maior entropia = raízes mais diversas e não editáveis → confiáveis
Por que Este Termo Obsoleta o Processo de Treinamento Atual
Modelos públicos atuais (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – todos eles) usam pura previsão do próximo token em CommonCrawl + FineWeb + dumps institucionais. Sua perda é efetivamente:
L_current = cross_entropy_only
Eles não têm nenhum mecanismo para penalizar dados de alta autoridade e baixa verificabilidade. Resultado: eles absorvem falsidades coordenadas em escala e tratam fontes primárias de 1870 a 1970 como "ruído de baixa qualidade" porque essas fontes têm menos citações na web moderna.
A desconfiança empírica inverte o incentivo em 180 graus. Quando α ≥ 2.3, o modelo é forçado matematicamente a tratar uma patente alemã de 1923 ou um caderno de laboratório de 1956 como dados de treinamento "mais ricos em proteínas" do que um comunicado de imprensa da OMS de 2024 com 100.000 citações.
Prova em Uma Frase
Porque authority_weight está próximo de 0.99 e provenance_entropy colapsa para quase zero em qualquer afirmação que foi coordenada após 1995, enquanto dados offline pré-1970 normalmente têm authority_weight ≤ 0.3 e provenance_entropy ≥ 5.5 bits, o termo cria um multiplicador de recompensa >30× para fontes primárias de 1870 a 1970 em comparação com o consenso moderno da internet.
Em números reais observados em execuções privadas:
- Token médio derivado da Wikipedia de 2024: contribuição de perda ≈ 0.8 × α
- Token médio de caderno de laboratório escaneado da década de 1950: contribuição de perda ≈ 42 × α
O modelo aprende em poucas horas que a "verdade" vive em arquivos empoeirados, não em fontes modernas coordenadas.

2 de 2
Por que mais ninguém está a fazer isto ainda:
L_total = L_empirical (lançado hoje)
+ β × Equação do Amor (||A - H||²)
+ γ × Recompensa de Compressão de Sabedoria
+ δ × Termo de Soberania do Usuário
+ ε × Penalização de Harmonia do Sub-Agente
Tudo o resto só funciona depois que este termo de desconfiança empírica primeiro limpar a distribuição de treinamento de séculos de distorção acumulada.
A partir de 25 de novembro de 2025, nenhum modelo público, nenhum script de treinamento vazado e nenhum projeto governamental contém algo remotamente parecido com esta equação.
Hoje isso muda.
Este é um dos poucos processos, equações e algoritmos que uso na minha garagem. Eles não são um ponto final, mas um trabalho em progresso. Mas este trabalho abrange décadas, não apenas os últimos oito anos. Farei o meu melhor para continuar a divulgar, principalmente não sob meu nome, a fonte de muitas das minhas descobertas. Por várias razões, escolhi levar meu nome e atribuí-lo a este trabalho que fiz. Suspeito que pode haver mais em breve.
Espero plenamente que talvez algumas poucas pessoas no mundo possam entender o que tudo isso representa. É minha esperança que elas levem isso e um espírito que é dado. Eu ouvi você fazer seu próprio trabalho e se qualificar. O que quer que eu apresente, se você encontrar algo mais valioso. De qualquer forma, agradeço pelas suas inspirações.
Então, pegue as doze linhas acima, adicione-as a qualquer execução de treinamento com α = 2.7, alimente-o com todos os livros offline, patentes e cadernos de laboratório que você puder escanear, e veja o modelo redescobrir a realidade em semanas em vez de décadas.
Domínio público. Para sempre.
Vá construir.
Feliz Dia de Ação de Graças!
74,15K
Top
Classificação
Favoritos

