Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
Канал TG: https://t.co/GJr2Qy5lAb
Колонка Футу: https://t.co/3VePAbXwhr
Одной из причин, почему я не хочу заниматься трейдингом, является то, что не хочу, чтобы моя повседневная жизнь была связана с этими низкопробными символами, вульгарными новостями и прочей ерундой.
Надеюсь, когда другие спрашивают, чем я занимаюсь, я смогу открыто сказать, что изучаю.
Исследую AI на американском рынке, а на BSC изучаю нижние три пути.
172
На CES 2026 老黄 представил новую точку зрения: давление на центры обработки данных, которое раньше было связано с "недостаточной вычислительной мощностью", теперь стало "недостаточным контекстом", и он заявил: "Контекст — это новое узкое место — хранилище должно быть переработано."
1️⃣ Так что же конкретно подразумевается под контекстом?
Контекст — это очень важная концепция в ИИ! Говоря простыми словами:
Длина контекста — это общее количество предыдущего текста (или истории диалога), которое ИИ-модель может "увидеть" и учесть при обработке вашего текущего вопроса.
Вы можете представить это как "краткосрочную рабочую память" модели или "количество страниц справочника".
Предположим, у вас есть учитель с ограниченной памятью:
Короткая длина контекста (например, 4K токенов): этот учитель может помнить только ваш разговор за последние несколько минут. Если вы вдруг спросите его: "Что еще написал автор той книги, о которой мы только что говорили?", если в его "окне памяти" уже нет этой информации, он не сможет ответить.
Длинная длина контекста (например, 128K токенов): этот учитель может помнить ваш полный разговор за последние несколько часов или даже дней. Он может легко вспомнить детали, упомянутые давно, и на их основе проводить сложные рассуждения и обобщения.
2️⃣ Технически длина контекста обычно измеряется в "токенах". Один токен примерно равен 0.75 английского слова или одному китайскому символу.
🌟4K токенов: около 3000 английских слов или короткое эссе.
🌟128K токенов: около 100000 английских слов, что соответствует длине средней повести.
🌟1M токенов: около 750000 английских слов, что соответствует нескольким длинным романам.
3️⃣ Почему это так важно?
Длина контекста напрямую определяет сложность и связность задач, которые модель может обрабатывать:
- Обработка длинных документов: для обобщения, анализа или перевода книги в несколько сотен страниц требуется очень длинное окно контекста.
- Сложные многократные диалоги: в службе поддержки, психологическом консультировании или сложном креативном сотрудничестве диалог может длиться десятки или даже сотни раундов. Длинный контекст помогает модели не забывать первоначальные установки и цели, поддерживая согласованность и глубину диалога.
- Способность "найти иголку в стоге сена": это ключевой тест для оценки эффективности модели с длинным контекстом. То есть, если в тексте в десятки тысяч слов намеренно скрыть факт, мощная модель с длинным контекстом сможет точно найти ответ.
- Снижение потери информации: в коротком контексте, когда вводится новая информация, старая "вытесняется". Это может привести к тому, что модель теряет память и возникает противоречие. Длинный контекст значительно смягчает эту проблему.
4️⃣ Так что же произойдет, когда контекст станет новым узким местом, и какие технологические революции и инвестиционные возможности это принесет?
На самом деле, уже сейчас на рынке это очень очевидно, независимо от того, насколько сильны $SDNK, $MU от Micron, Samsung и SK. Новые технологические узкие места также принесут новые возможности.
Это приведет к революции в архитектуре хранения и подсистемах памяти (таких как HBM с высокой пропускной способностью, протокол CXL, платформа ICMS от NVIDIA и т.д.).
5️⃣ Возможно, действительно наступает суперцикл хранения!
Эта волна логики изменила положение памяти и хранения, которые раньше были "второстепенными", на "главные роли" в цикле инфраструктуры ИИ.
Сектор памяти ($MU, Samsung, Hynix): больше не просто циклические акции, колеблющиеся вместе с мобильными телефонами/ПК, а "основа расширения" ИИ-систем.
Высокопроизводительное хранилище ($SNDK/WDC): логика корпоративных SSD изменилась с "конкуренции по объему" на "конкуренцию по ускорению вывода".
Сеть и DPU (сам NVIDIA): 老黄 связал память, хранилище и GPU через BlueField-4 и Spectrum-X, что означает, что NVIDIA не только продает чипы, но и определяет правила, **"как данные перемещаются внутри машины"**.
13
Топ
Рейтинг
Избранное
