Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Не бойтесь величия
Юлиан Шриттвизер (Anthropic):
- Обсуждение пузыря ИИ в X "очень отделено" от того, что происходит в передовых лабораториях. "В передовых лабораториях мы не наблюдаем замедления прогресса."
- ИИ окажет "огромное экономическое влияние". Прогнозы доходов для OpenAI, Anthropic и Google на самом деле "довольно консервативны".
- Экстраполируя данные, такие как данные METR, в следующем году модели смогут работать самостоятельно по целому ряду задач. Длина задачи важна, потому что это открывает возможность для человека контролировать команду моделей, каждая из которых работает автономно в течение нескольких часов (в отличие от необходимости общаться с агентом каждые 10 минут, чтобы дать ему обратную связь).
- "Крайне вероятно", что текущий подход к обучению моделей ИИ (предварительное обучение, RL) приведет к созданию системы, которая сможет выполнять задачи на уровне человека по всем задачам, которые мы считаем важными с точки зрения продуктивности.
- О Move 37: "Я думаю, что довольно очевидно, что эти модели могут делать новые вещи." AlphaCode и AlphaTensor "доказали, что можно открывать новые программы и алгоритмы". ИИ "абсолютно уже открывает новые вещи", и "мы просто поднимаемся по шкале того, насколько впечатляющими и интересными являются вещи, которые он может открывать самостоятельно."
- "Очень вероятно", что в следующем году мы увидим некоторые открытия, которые люди единогласно признают супер-впечатляющими.
- ИИ сможет самостоятельно сделать прорыв, достойный Нобелевской премии в 2027 или 2028 году.
- О способности ИИ ускорять развитие ИИ: очень распространенной проблемой во многих научных областях является то, что становится все труднее делать прорывы по мере развития области (т.е. 100 лет назад один ученый мог случайно открыть первый антибиотик, тогда как сейчас требуется миллиарды долларов, чтобы открыть новое лекарство). То же самое может произойти с исследованиями ИИ - хотя ИИ сделает исследования нового ИИ более продуктивными, может не произойти взрыв из-за того, что новые прорывы становятся все труднее находить.

Matt Turck24 окт. 2025 г.
Не понимаете экспоненциальный рост, снова?
Мой разговор с @Mononofu - Юлианом Шритвайзером (@AnthropicAI, AlphaGo Zero, MuZero) - о ходе 37, масштабировании RL, Нобелевской премии по ИИ и границах ИИ:
00:00 - Холодное открытие: "Мы не видим никакого замедления."
00:32 - Введение — знакомьтесь с Юлианом
01:09 - "Экспоненциальный" изнутри передовых лабораторий
04:46 - 2026–2027: агенты, работающие полный день; экспертный уровень охвата
08:58 - Эталоны против реальности: работа на длинных горизонтах, GDP-Val, ценность для пользователей
10:26 - Ход 37 — что на самом деле произошло и почему это имело значение
13:55 - Новая наука: AlphaCode/AlphaTensor → когда ИИ получит Нобеля?
16:25 - Дискретность против плавного прогресса (и знаки предупреждения)
19:08 - Приводит ли предобучение + RL к результату? (дебаты AGI в стороне)
20:55 - "RL с нуля" Саттона? Мнение Юлиана
23:03 - Путь Юлиана: Google → DeepMind → Anthropic
26:45 - AlphaGo (обучение + поиск) на простом языке
30:16 - AlphaGo Zero (без человеческих данных)
31:00 - AlphaZero (один алгоритм: го, шахматы, сёги)
31:46 - MuZero (планирование с обученной моделью мира)
33:23 - Уроки для сегодняшних агентов: поиск + обучение в масштабе
34:57 - Есть ли у LLM уже неявные модели мира?
39:02 - Почему RL на LLM заняло время (стабильность, обратные связи)
41:43 - Вычисления и масштабирование для RL — что мы видим до сих пор
42:35 - Граница вознаграждений: человеческие предпочтения, рубрики, RLVR, процессуальные вознаграждения
44:36 - Данные для обучения RL и "маховик" (и почему качество имеет значение)
48:02 - RL и агенты 101 — почему RL открывает устойчивость
50:51 - Должны ли строители использовать RL как услугу? Или просто инструменты + подсказки?
52:18 - Что не хватает для надежных агентов (возможности против инженерии)
53:51 - Оценки и Гудхарт — внутренние против внешних эталонов
57:35 - Механистическая интерпретируемость и "Золотые ворота Клода"
1:00:03 - Безопасность и согласование в Anthropic — как это проявляется на практике
1:03:48 - Работы: человеческая–ИИ комплементарность (сравнительное преимущество)
1:06:33 - Неравенство, политика и случай для 10× производительности → изобилие
1:09:24 - Заключительные мысли
203,11K
Топ
Рейтинг
Избранное



