Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Дженсен щойно сказав вам, що DRAM — це ризик для національної безпеки, і ніхто не переоцінює ризик Nvidia у ланцюгу постачання.
Ось що, на думку більшості людей, сталося: Nvidia купила Groq за 20 млрд доларів, щоб розширити діяльність у сфері Inference. Крутий acqui-hire, хороша техніка, рухаємося далі.
Це неправильно.
Подивіться, що насправді відбувається зараз на ринках DRAM. Ціни на чипи DDR5 зросли з $6.84 до $27.20 у четвертому кварталі 2025 року. Це 4-разове збільшення за три місяці. Samsung щойно підняв ціни на контракти на 100%. Кінгстон щотижня впроваджує двозначні підвищення показників. Виробники ПК тепер постачають настільні комп'ютери без оперативної пам'яті, бо вони буквально не можуть її придбати.
Чому? HBM для дата-центрів на основі ШІ. Samsung, SK Hynix і Micron перерозподілили об'єм пластин HBM у 3 рази швидше за стандартну DRAM. Ланцюг постачання на основі штучного інтелекту забирає споживчу пам'ять, і полегшення не буде раніше 2027 року, бо нові фабрики будуються 4-5 років.
Відеокарти Nvidia мають багато HBM. Кожен H100 містить 80GB HBM3. Кожна система B200 вимагає ще більше. HBM складається з кількох кристалів DRAM, складених разом із надзвичайно складним виробництвом. Потроєне зростання цін на DRAM впливає не лише на конструкторів ПК. Це безпосередньо впливає на витрати на GPU та виробничі потужності Nvidia.
LPU Groq не використовують HBM. Нуль.
Вони працюють повністю на 230 МБ вбудованої SRAM на процесор. Пропускна здатність SRAM сягає 80 ТБ/с проти 8 ТБ/с у HBM. Чіпи взагалі не потребують зовнішньої пам'яті. Кожна вага лежить безпосередньо на кремнію.
Ця архітектура здавалася обмеженням, коли DRAM була дешевою. Для запуску моделі параметрів 70B потрібні сотні Groq-чипів, з'єднаних у мережу, оскільки кожен чип містить дуже мало пам'яті. Комп'ютери в масштабі стійки. Складні взаємозв'язки. Капіталомісткий.
Але коли DRAM збільшується 4 рази за квартал, а постачання HBM стає обмеженням для всього AI-будівництва, це «обмеження» перетворюється на перевагу.
LPU від Groq виготовляється з кремнію 14 нм. Стародавній за напівпровідниковими стандартами. Немає залежності від передових вузлів TSMC. Немає залежності від трьох компаній, які контролюють 90%+ виробництва DRAM.
Дженсен витратив 20 мільярдів доларів на хеджування найнебезпечнішої позиції Nvidia у ланцюгу постачання. Якщо HBM залишиться рідкісним і дорогим, він тепер володіє архітектурою інференції, яка повністю обходить це обмеження. Якщо HBM нормалізується, він втратить $20 млрд на компанію, яку три місяці тому оцінювали у $6.9B.
Премія за ціну показує ймовірнісну оцінку Єнсена. Він заплатив майже втричі за останній раунд за аварійний люк.
І, якщо це має значення, TrendForce прогнозує, що дефіцит пам'яті триватиме до першого кварталу 2026 року і далі. Samsung, SK Hynix і Micron мають операційну маржу 40-60% і не мають жодних стимулів заповнювати ринок. Олігополія поводиться точно як олігополія.
Питання, яке ніхто не ставить: якщо людина, яка продає найбільше AI-чипів, щойно витратила $20 мільярдів на архітектуру, яка не використовує DRAM, що він знає про постачання HBM, чого ми не знаємо?
Найкращі
Рейтинг
Вибране
