Сейчас в технологиях главная тема — ИИ, и это особенно заметно на рынке компьютерной памяти. Спрос на DRAM для GPU и других ускорителей в дата-центрах ИИ такой огромный, что запасы уходят на эти нужды, а цены взлетают. По данным Counterpoint Research, в этом квартале они выросли на 80–90 процентов.
Крупные производители оборудования для ИИ запаслись чипами до 2028 года, а всем остальным — от создателей ПК и гаджетов до любых устройств, которые хранят миллиарды битов данных, — приходится бороться с нехваткой и завышенными ценами.
Как электроника оказалась в таком положении и главное — как из него выбраться? Специалисты по экономике и памяти объясняют: дело в столкновении традиционных взлетов и падений на рынке DRAM с беспрецедентным расширением инфраструктуры для ИИ. Без серьезного спада в ИИ-секторе на выравнивание поставок уйдут годы за счет новых мощностей и технологий. Даже тогда цены могут остаться высокими.
Чтобы разобраться в ситуации, стоит понять главного виновника — высокоскоростную память HBM.
Что такое HBM?
HBM создали в индустрии DRAM, чтобы обойти замедление темпов закона Мура, применив 3D-упаковку чипов. Каждый такой чип состоит из до 12 истонченных кристаллов DRAM, называемых dies. В каждом кристалле есть вертикальные соединения — through silicon vias (TSVs). Кристаллы укладывают друг на друга и соединяют микроскопическими шариками припоя, выровненными по TSV. Эта DRAM-конструкция — толщиной около 750 микрометров, больше похожая на приземистое здание, — ставится на базовый кристалл, который передает данные между памятью и процессором.
Сложный блок размещают в миллиметре от GPU или другого ускорителя ИИ, соединяя до 2048 связями микрометрового масштаба. HBM крепят с двух сторон процессора, а GPU с памятью упаковывают в единый модуль.
Такая близкая и плотная связь с GPU нужна, чтобы преодолеть барьер под названием memory wall — задержки и энергозатраты на передачу терабайт данных в секунду для работы больших языковых моделей. Пропускная способность памяти сильно ограничивает скорость LLM.
HBM существует больше 10 лет, и производители DRAM постоянно ее улучшают.
По мере роста размеров моделей ИИ роль HBM для GPU усиливается, но цена высока. По оценкам SemiAnalysis, HBM втрое дороже других видов памяти и занимает 50 процентов или больше в стоимости упакованного GPU.
Как возник дефицит чипов памяти
Наблюдатели рынка памяти и накопителей сходятся: DRAM — крайне цикличная отрасль с мощными подъемами и жестокими спадами. Новые фабрики стоят 15 миллиардов долларов и больше, компании не спешат расширяться и могут себе это позволить только в периоды бума, отмечает Томас Кофлин, эксперт по памяти и накопителям, глава Coughlin Associates. Но на строительство и запуск уходит 18 месяцев или дольше, так что новые мощности приходят после пика спроса, рынок затопляется, цены падают.
Текущий цикл начался еще с паники вокруг поставок чипов во время пандемии COVID-19. Чтобы избежать сбоев и поддержать переход на удаленную работу, гиганты дата-центров вроде Amazon, Google и Microsoft скупили огромные запасы памяти и накопителей, что подняло цены, вспоминает Кофлин.
Потом поставки наладились, расширение дата-центров замедлилось в 2022 году, цены на память и накопители рухнули. Спад затянулся до 2023-го, крупные игроки вроде Samsung даже сократили производство вдвое, чтобы цены не ушли ниже себестоимости. Редкий шаг отчаяния: обычно фабрики загружают на полную, чтобы окупить вложения.
Восстановление стартовало в конце 2023-го, но компании memory и storage очень осторожничали с наращиванием мощностей. В 2024-м и почти весь 2025-й инвестиций в новые производства почти не было, добавляет Кофлин.
Бум дата-центров для ИИ
Отсутствие инвестиций наложилось на взрывной спрос от новых дата-центров. По данным Data Center Map, в мире сейчас планируют или строят почти 2000 объектов — это плюс 20 процентов к существующим 9000.
Если строительство продолжится такими темпами, по прогнозу McKinsey, к 2030 году потратят 7 триллионов долларов, из них 5,2 триллиона — на дата-центры для ИИ. Из этой суммы 3,3 миллиарда уйдут на серверы, накопители данных и сетевое оборудование.
Главный выигравший пока — Nvidia. Выручка ее дата-центрского подразделения выросла с чуть больше миллиарда в последнем квартале 2019-го до 51 миллиарда в квартале на октябрь 2025-го. Ее серверные GPU требуют все больше гигабайт DRAM и все больше чипов. Недавний B300 использует восемь HBM, каждый — стек из 12 кристаллов DRAM. У конкурентов похожая картина: GPU MI350 от AMD тоже с восемью 12-слойными чипами.
HBM приносит все большую долю доходов производителям DRAM. Micron, третий по величине после SK Hynix и Samsung, сообщает: доля HBM и другой памяти для облака выросла с 17 процентов выручки от DRAM в 2023-м почти до 50 процентов в 2025-м.
Micron ожидает, что рынок HBM вырастет с 35 миллиардов долларов в 2025-м до 100 миллиардов к 2028-му — больше, чем весь рынок DRAM в 2024-м. Это случится на два года раньше прежних прогнозов. Спрос превысит предложение существенно и надолго, заявил CEO Sanjay Mehrotra аналитикам в декабре.
Поставки и технологии DRAM в будущем
Решить проблемы с поставками DRAM можно двумя путями: инновациями или новыми фабриками, объясняет экономист Mina Kim из Mkecon Insights. Поскольку масштабирование DRAM усложнилось, индустрия пошла по пути продвинутой упаковки — то есть просто больше DRAM.
Micron, Samsung и SK Hynix доминируют на рынке памяти и накопителей, все трое строят новые фабрики и цеха. Но они вряд ли быстро снизят цены.
Micron закладывает фабрику HBM в Сингапуре — производство стартует в 2027-м. Переоборудует фабрику от PSMC в Тайване — запуск во второй половине 2027-го. В прошлом месяце начала строительство комплекса по DRAM в округе Онаондога, штат Нью-Йорк, — полная мощность в 2030-м.
Samsung начнет производство на новом заводе в Пхёнтхэке, Южная Корея, в 2028-м.
SK Hynix строит мощности по HBM и упаковке в Уэст-Лафайет, Индиана, — запуск к концу 2028-го, и фабрику HBM в Чхонджу — готова в 2027-м.
О рынке DRAM глава Intel Lip-Bu Tan сказал на Cisco AI Summit на прошлой неделе: облегчения не будет до 2028-го.
Пока новые фабрики не запустятся, помогут другие меры. Облегчение придет от постепенного наращивания мощностей лидерами, роста выхода годных в продвинутой упаковке и диверсификации цепочек поставок, считает главный экономист Consumer Technology Association Shawn DuBravac. Новые фабрики добавят немного, а быстрый эффект дадут обучение процессов, лучшая эффективность укладки DRAM и тесная координация между поставщиками памяти и дизайнерами ИИ-чипов.
Снижение цен с запуском новых заводов? Не рассчитывайте. Экономисты отмечают: цены падают медленнее и неохотнее, чем растут. DRAM не станет исключением, особенно при неутолимом спросе на вычисления, говорит Kim.
Пока развивают технологии, которые сделают HBM еще большим потребителем кремния. Стандарт HBM4 позволяет 16 слоев DRAM, хотя сейчас используют 12. Переход к 16 зависит от технологий укладки чипов. Отвод тепла через "пирог" из кремния, припоя и материалов — главное ограничение для роста штабеля и перестановки HBM в упаковке для большей пропускной способности.
SK Hynix хвалит свою технологию MR-MUF (mass reflow molded underfill) за лучший отвод тепла. Далее гибридная связь сократит расстояние между кристаллами почти до нуля. В 2024-м исследователи Samsung сделали 16-слойный штабель гибридной связью и намекнули, что 20 слоев реальны.