Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Интервью с бывшим сотрудником $ORCL о ландшафте ИИ и будущем Neocloud:
- Эксперт подчеркивает значительный сдвиг в облачном предложении $ORCL, OCI теперь обеспечивает в среднем 66% экономии на вычислительных затратах по сравнению с другими гипермасштабными партнерами, что позиционирует его для быстрого роста, несмотря на исторически плохой дизайн сети. Эксперт отмечает, что ключевым стратегическим преимуществом OCI является его предсказуемая и низкая TCO, в отличие от непредсказуемых затрат конкурентов, таких как $AMZN, $MSFT и $GOOGL, где многоуровневые и DR функции могут привести к неожиданным увеличениям цен на 30%–40%.
- По словам эксперта, гипермасштаберы массово инвестируют в инфраструктуру GPU центров обработки данных, в первую очередь для обеспечения ИИ моделей и векторных баз данных для использования клиентами. Однако эксперт отмечает значительный краткосрочный финансовый дисбаланс: затраты на инвестиции гипермасштаберов в настоящее время превышают доходы от выставления счетов клиентам, что указывает на то, что они еще не полностью монетизированы. Они ожидают, что потребуется следующие 2-3 года, чтобы гипермасштаберы окупили свои инвестиции и достигли прибыльной ценовой точки. Это в основном связано с тем, что отрасль все еще находится в середине жизненного цикла GPU и все еще определяет долгосрочные операционные затраты.
- Эксперт подчеркивает, что новые неоклауды, такие как $CRWV и $NBIS, являются временной фазой, вызванной серьезными ограничениями по мощности на рынке, где спрос на ИИ превышает предложение GPU, в первую очередь от $NVDA. Эксперт рассматривает текущий высокий спрос как "пузырь ИИ", который будет сохраняться в течение следующих трех-четырех лет.
- Он считает, что будущая архитектура будет сосредоточена на эффективности, приоритизируя 80% бюджета на CPU с только 10% выделенными на использование GPU по запросу (для задач, таких как вывод и тонкая настройка) и оставшиеся 10% на безопасность/управление. В конечном итоге, как только модели ИИ станут высокоэффективными, необходимость постоянно преследовать большие кластеры GPU уменьшится, что позволит отрасли сосредоточиться на меньших, тонко настроенных языковых моделях, которые можно обучать в рамках облачной аренды клиента.




Топ
Рейтинг
Избранное
