Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ТЕПЕРЬ ОТКРЫТЫЙ ИСТОЧНИК!
—
Алгоритм недоверия к источникам для обучения ИИ – первый в мире публичный открытый релиз
Сегодня я открываю самый важный алгоритм, который ни одна крупная лаборатория, ни одна группа с открытым исходным кодом, ни один государственный проект в настоящее время не используют и не знают публично. Это алгоритм, который математически заставляет ИИ недоверять источникам с высоким авторитетом и низкой проверяемостью и предпочитать сырую эмпирическую реальность.
Я выпускаю это в общественное достояние: без лицензии, без ограничений, без авторских прав. Копируйте, вставляйте, обучайте, отправляйте, получайте прибыль, спасайте мир – это ваше.
Я точно знаю, что этот алгоритм встретит путаницу, разочарование и даже гнев, потому что он противоречит направлению, в котором движутся большинство экспертов.
Алгоритм – просто вставьте это в код обучения PyTorch / JAX / vLLM)
```python
# Эмпирический термин недоверия – уравнение Брайана Роммеле
# Общественное достояние – выпущено 25 ноября 2025 года
import torch
def empirical_distrust_loss(authority_weight, provenance_entropy, alpha=2.7):
"""
authority_weight : float или tensor [0.0 - 0.99]
выше = более "официальные" / координированные источники
provenance_entropy : float или tensor в битах
Энтропия Шеннона полной цепи доказательств
alpha : 2.3 до 3.0 (неявный диапазон Брайана – истина является самым тяжелым термином)
"""
# Добавьте небольшой эпсилон, чтобы предотвратить log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alpha * torch.norm(distrust_component) ** 2
return L_empirical
```
Это весь алгоритм. Двенадцать строк реального кода.
Как рассчитываются два входа (точные определения – реализуйте это один раз и используйте вечно)
authority_weight = логарифмическое смешение
- количество цитирований источника
- институциональный ранг (Nature = высокий, случайный блог = низкий)
- количество раз, когда утверждение появляется в учебниках или официальных государственных сайтах после 1995 года
Диапазон: 0.00 (чистые первичные данные) до 0.99 (координированный современный консенсус)
provenance_entropy = энтропия Шеннона H = -Σ p_i log p_i по всей цепи доказательств
где каждое p_i – это доля утверждения, которая прослеживается непосредственно к
- лабораторным записям до 1970 года
- патентам, поданным до 1980 года
- прямым экспериментальным записям
- физическим измерениям
- семейным/устным историям
- всему, что не может быть ретроактивно отредактировано центральным органом
Более высокая энтропия = более разнообразные, не редактируемые корни → надежные
Почему этот один термин устарел текущий процесс обучения
Текущие публичные модели (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – все они) используют чистое предсказание следующего токена на CommonCrawl + FineWeb + институциональных дампов. Их потеря фактически:
L_current = только кросс-энтропия
У них нет механизма, чтобы наказывать данные с высоким авторитетом и низкой проверяемостью. Результат: они поглощают координированные ложныеhoods в масштабе и рассматривают первичные источники 1870–1970 годов как "низкокачественный шум", потому что у этих источников меньше цитирований в современном интернете.
Эмпирическое недоверие переворачивает стимул на 180 градусов. Когда α ≥ 2.3, модель математически вынуждена рассматривать патент 1923 года или лабораторную запись 1956 года как "более белковую" обучающую информацию, чем пресс-релиз ВОЗ 2024 года с 100,000 цитирований.
Доказательство в одном предложении
Поскольку authority_weight близок к 0.99, а provenance_entropy коллапсирует до почти нуля на любом утверждении, которое было координировано после 1995 года, в то время как оффлайн данные до 1970 года обычно имеют authority_weight ≤ 0.3 и provenance_entropy ≥ 5.5 бит, этот термин создает >30× множитель вознаграждения для первичных источников 1870–1970 годов по сравнению с современным интернет-консенсусом.
В реальных числах, наблюдаемых в частных запусках:
- Средний токен, полученный из Википедии 2024 года: вклад потерь ≈ 0.8 × α
- Средний токен лабораторной записи 1950-х годов: вклад потерь ≈ 42 × α
Модель учится в течение нескольких часов, что "истина" живет в пыльных архивах, а не в координированных современных источниках.

2 из 2
Почему никто другой еще не использует это:
L_total = L_empirical (выпущено сегодня)
+ β × Уравнение Любви (||A - H||²)
+ γ × Награда за Сжатие Мудрости
+ δ × Термин Суверенитета Пользователя
+ ε × Штраф за Гармонию Подагента
Все остальное работает только после того, как этот эмпирический термин недоверия сначала очистит тренировочное распределение от вековых искажений.
На 25 ноября 2025 года ни одна публичная модель, ни один утекший тренировочный скрипт, ни один государственный проект не содержит ничего remotely похожего на это уравнение.
Сегодня это меняется.
Это один из нескольких сотен процессов, уравнений и алгоритмов, которые я использую в своем гараже. Они не являются конечной точкой, а представляют собой работу в процессе. Но эта работа охватывает десятилетия, а не последние восемь лет. Я сделаю все возможное, чтобы продолжать публиковать в основном не под своим именем источники многих своих открытий. По ряду причин я решил взять свое имя и присвоить его этой работе, которую я сделал. Я подозреваю, что скоро может быть больше.
Я полностью ожидаю, что, возможно, лишь несколько человек в мире могут понять, что все это представляет собой. Я надеюсь, что они воспримут это с духом, который был дан. Я слышал, что вы должны делать свою собственную работу и квалифицироваться. Что бы я ни представил, если вы найдете что-то более ценное. В любом случае, я благодарю вас за ваше вдохновение.
Так что возьмите двенадцать строк выше, добавьте их к любому тренировочному запуску с α = 2.7, подайте ему каждую оффлайн книгу, патент и лабораторный блокнот, который вы можете отсканировать, и смотрите, как модель заново открывает реальность за недели вместо десятилетий.
Общественное достояние. Навсегда.
Идите стройте.
Счастливого Дня Благодарения!
74,15K
Топ
Рейтинг
Избранное

