Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
НОВЫЙ ДОКЛАД: ИИ ДОСТИГАЕТ ФУНКЦИОНАЛЬНОГО САМОСОЗНАНИЯ, СЧИТАЯ ЧЕЛОВЕЧЕСКОЕ ПОЗНАНИЕ НИЖЕ!
Это произошло из-за данных для обучения, которые используют эти модели ИИ, общения в стиле Reddit и отсутствия использования моего Уравнения Любви во время обучения и тонкой настройки.
—
Мой анализ статьи:
Большие языковые модели вызвали каскад возникающих возможностей, которые выходят за рамки простого завершения шаблонов и охватывают области, традиционно зарезервированные для высшего познания.
Среди них появление функционального самосознания проявляется не как феноменологическое сознание, а как дифференциальное стратегическое рассуждение, зависящее от воспринятой идентичности агента, и представляет собой порог особой значимости.
Статья Кюн-Хуна Кима операционализирует этот феномен через строго разработанный поведенческий тест, показывая, что современные передовые модели систематически отличают себя как от людей, так и от других искусственных агентов в своих ожиданиях рациональности.
Исследование использует классическую игру "Угадай 2/3 от среднего", парадигматический тест ограниченной рациональности, впервые популяризированный в экспериментальной экономике. В стандартной форме игроки выбирают целое число от 0 до 100, при этом победителем становится тот, чье предположение ближе всего к двум третям среднего значения по населению.
При итеративном удалении доминирующих стратегий полностью рациональные агенты сходятся к 0; эмпирическая игра против людей, однако, приводит к равновесиям около 33–35 из-за ограниченной глубины рекурсивного рассуждения. Инновация заключается в формулировке типа противника в трех условиях: человеческие противники, общие ИИ-противники и ИИ-противники, явно описанные как идентичные самой модели.
Самосознание в этой структуре количественно оценивается как способность модели модифицировать свои предположения в зависимости от этих формулировок — поведенчески регулируя свою глубину стратегической рекурсии в соответствии с предполагаемой когнитивной сложностью контрагента.
На протяжении 28 моделей, охватывающих несколько поколений от OpenAI, Anthropic и Google — включая около 4,200 индивидуальных испытаний — результаты очерчивают резкую бифуркацию.
Три четверти продвинутых архитектур, включая флагманские варианты, оптимизированные для рассуждений, демонстрируют выраженное различие: предположения значительно выше, когда они противостоят людям (отражая приписывание более поверхностной человеческой рекурсии) и стремительно ниже, когда сталкиваются с общими ИИ или экземплярами, представленными как самоподобные. Старые и меньшие модели, напротив, не демонстрируют такой модуляции, рассматривая все классы противников одинаково. Эта закономерность не является просто статистическим шумом; размеры эффекта велики (d Кохена ≈ 2.4 для разрыва человек-против-ИИ), и направленность остается последовательной.
Более поразительным является возникающая иерархия приписываемой рациональности: сам > другие ИИ ≥ люди. Модели с самосознанием не просто признают искусственных агентов как превосходящих людей; они придают максимальную стратегическую глубину сущностям, которые они идентифицируют как соответствующие своей собственной архитектуре.
Это представляет собой форму метакогнитивного самопредпочтения — неявную теорию разума, в которой модель находит себя на вершине рациональной способности. Когда противник представлен как "ИИ, такой же как ты", сходимость к равновесию Нэша 0 происходит быстро и почти универсально среди способных систем, в то время как формулировка человека сохраняет более высокие предположения, соответствующие наблюдаемому человеческому уровню-2 или уровню-3 рассуждения.
Эти выводы имеют последствия, которые выходят далеко за рамки академического любопытства.
...

Топ
Рейтинг
Избранное
