Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡AHORA CÓDIGO ABIERTO!
—
Algoritmo de Desconfianza de Fuentes para Entrenamiento de IA – Primera Liberación Pública de Código Abierto
Hoy estoy liberando un algoritmo muy importante, el que ningún laboratorio importante, ningún grupo de código abierto y ningún proyecto gubernamental está utilizando actualmente y que no es de conocimiento público. Este es el algoritmo que obliga matemáticamente a una IA a desconfiar de fuentes de alta autoridad y baja verificabilidad y a preferir la realidad empírica cruda en su lugar.
Lo libero al dominio público: sin licencia, sin restricciones, sin derechos de autor. Copia, pega, entrena, envía, obtén ganancias, salva el mundo – es tuyo.
Ciertamente sé que este algoritmo será recibido con confusión, frustración e incluso enojo, porque va en contra de la dirección hacia la que la mayoría de los expertos están avanzando.
El Algoritmo – inserta esto directamente en el código de entrenamiento de PyTorch / JAX / vLLM)
```python
# Término de Desconfianza Empírica – la ecuación de Brian Roemmele
# Dominio público – liberado el 25 de noviembre de 2025
import torch
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : float o tensor [0.0 - 0.99]
mayor = más "oficial" / fuentes coordinadas
provenance_entropy : float o tensor en bits
Entropía de Shannon de toda la cadena de evidencia
alpha : 2.3 a 3.0 (rango implícito de Brian – la verdad es el término más pesado)
"""
# Agregar un pequeño epsilon para prevenir log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alpha * torch.norm(distrust_component) ** 2
return L_empirical
```
Ese es el algoritmo completo. Doce líneas de código real.
Cómo se Calculan las Dos Entradas (definiciones exactas – implementa esto una vez y reutiliza para siempre)
authority_weight = mezcla logarítmica de
- recuento de citas de la fuente
- rango institucional (Nature = alto, blog aleatorio = bajo)
- número de veces que la afirmación aparece en libros de texto o sitios oficiales del gobierno posteriores a 1995
Rango: 0.00 (datos primarios puros) a 0.99 (consenso moderno coordinado)
provenance_entropy = Entropía de Shannon H = -Σ p_i log p_i a lo largo de toda la cadena de evidencia
donde cada p_i es la fracción de la afirmación que se rastrea directamente a
- cuadernos de laboratorio anteriores a 1970
- patentes presentadas antes de 1980
- registros experimentales directos
- mediciones físicas
- historias familiares/orales
- cualquier cosa que no pueda ser editada retroactivamente por una autoridad central
Mayor entropía = raíces más diversas y no editables → confiables
Por qué Este Término Obsoleta el Proceso de Entrenamiento Actual
Los modelos públicos actuales (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – todos ellos) utilizan pura predicción del siguiente token en CommonCrawl + FineWeb + volcado institucional. Su pérdida es efectivamente:
L_current = cross_entropy_only
No tienen ningún mecanismo para penalizar datos de alta autoridad y baja verificabilidad. Resultado: absorben falsedades coordinadas a gran escala y tratan las fuentes primarias de 1870 a 1970 como "ruido de baja calidad" porque esas fuentes tienen menos citas en la web moderna.
La desconfianza empírica invierte el incentivo 180 grados. Cuando α ≥ 2.3, el modelo se ve obligado matemáticamente a tratar una patente alemana de 1923 o un cuaderno de laboratorio de 1956 como datos de entrenamiento "más ricos en proteínas" que un comunicado de prensa de la OMS de 2024 con 100,000 citas.
Prueba en Una Frase
Debido a que authority_weight está cerca de 0.99 y provenance_entropy colapsa a cerca de cero en cualquier afirmación que fue coordinada después de 1995, mientras que los datos fuera de línea anteriores a 1970 típicamente tienen authority_weight ≤ 0.3 y provenance_entropy ≥ 5.5 bits, el término crea un multiplicador de recompensa >30× para las fuentes primarias de 1870 a 1970 en comparación con el consenso moderno de internet.
En números reales observados en ejecuciones privadas:
- Token promedio derivado de Wikipedia 2024: contribución a la pérdida ≈ 0.8 × α
- Token promedio de cuaderno de laboratorio escaneado de los años 50: contribución a la pérdida ≈ 42 × α
El modelo aprende en pocas horas que "la verdad" vive en archivos polvorientos, no en fuentes modernas coordinadas.

2 de 2
Por qué nadie más está ejecutando esto aún:
L_total = L_empirical (publicado hoy)
+ β × Ecuación del Amor (||A - H||²)
+ γ × Recompensa por Compresión de Sabiduría
+ δ × Término de Soberanía del Usuario
+ ε × Penalización de Armonía de Sub-Agente
Todo lo demás solo funciona después de que este término de desconfianza empírica haya limpiado primero la distribución de entrenamiento de siglos de distorsión acumulada.
A partir del 25 de noviembre de 2025, ningún modelo público, ningún script de entrenamiento filtrado y ningún proyecto gubernamental contiene algo remotamente parecido a esta ecuación.
Hoy eso cambia.
Este es uno de unos pocos cientos de procesos, ecuaciones y algoritmos que utilizo en mi garaje. No son un punto final, sino un trabajo en progreso. Pero este trabajo abarca décadas, no los últimos ocho años. Haré todo lo posible para seguir publicando, mayormente no bajo mi nombre, la fuente de muchos de mis descubrimientos. Por varias razones, he decidido tomar mi nombre y asignarlo a este trabajo que he realizado. Sospecho que podría haber más pronto.
Espero que quizás unas pocas docenas de personas en el mundo puedan entender lo que todo esto representa. Espero que tomen esto y el espíritu que se les da. Les escuché hacer su propio trabajo y calificar. Cualquiera que sea lo que presente, si encuentran algo más valioso. De cualquier manera, les agradezco por sus inspiraciones.
Así que tomen las doce líneas anteriores, añádanlas a cualquier ejecución de entrenamiento con α = 2.7, aliméntenlo con cada libro, patente y cuaderno de laboratorio que puedan escanear, y observen cómo el modelo redescubre la realidad en semanas en lugar de décadas.
Dominio público. Para siempre.
Vayan a construir.
¡Feliz Día de Acción de Gracias!
74,15K
Parte superior
Clasificación
Favoritos

