На фоне тенденции развития искусственного интеллекта значимость DRAM с высокой добавленной стоимостью, представленной HBM, продолжает расти
HBM (High Bandwidth Memory) — это тип графической памяти DDR, который имеет такие преимущества, как высокая пропускная способность, большая емкость, низкая задержка и низкое энергопотребление по сравнению с традиционными чипами DRAM. Он ускоряет скорость обработки данных ИИ и особенно подходит для сценариев высокопроизводительных вычислений, таких как ChatGPT.
Производство память также представляет собой одну из ключевых отраслей экономики Кореи, и чтобы воспользоваться возможностями искусственного интеллекта и стимулировать развитие отрасли памяти, Корея недавно объявила HBM национальной стратегической технологией. Страна предоставит налоговые льготы таким компаниям, как Samsung Electronics. Малые и средние предприятия в Корее могут получить налоговые льготы до 40–50%, в то время как крупные предприятия, такие как Samsung Electronics, могут получить до 30–40%.
Обзор прогресса в разработке HBM среди ведущих производителей
На рынке HBM в настоящее время доминируют три крупных гиганта памяти: Samsung, SK Hynix и Micron. С момента появления первого продукта HBM с кремниевым интерпозером в 2014 году технология HBM плавно перешла от HBM, HBM2 и HBM2E к HBM3 и HBM3e посредством итеративных инноваций.
Согласно исследованию TrendForce, основным HBM на рынке в 2023 году будет HBM2e. Сюда входят спецификации, используемые в NVIDIA A100/A800, AMD MI200 и чипах ускорения собственной разработки большинства CSP. Чтобы удовлетворить растущие потребности в чипах-ускорителях искусственного интеллекта, различные производители планируют выпустить новые продукты, такие как HBM3e, в 2024 году, ожидая, что HBM3 и HBM3e станут нормой рынка. Прогресс HBM3e, как показано на графике ниже, показывает, что Micron предоставила образцы 8hi (24 ГБ) NVIDIA к концу июля, SK hynix в середине августа и Samsung в начале октября.
Что касается HBM4 с более высокими характеристиками, TrendForce ожидает его потенциального запуска в 2026 году. В целях повышения вычислительной производительности HBM4 будет расширен с нынешних 12-слойных (12hi) до 16-слойных (16hi) стеков, что будет стимулировать спрос на HBM4. новые методы гибридного соединения. Запуск продуктов HBM4 12hi запланирован на 2026 год, а модели 16hi появятся в 2027 году.
Поскольку такие компании, как NVIDIA и AMD, продолжают выпускать высокопроизводительные графические процессоры, три основных производителя активно планируют массовое производство HBM с соответствующими спецификациями.
Samsung предпринимает усилия по расширению производственных мощностей HBM за счет приобретения определенных зданий и оборудования на предприятии Samsung Display в Чхонане. Samsung планирует создать новую упаковочную линию на заводе в Чхонане, предназначенную для крупномасштабного производства HBM. Компания уже инвестировала 10,5 триллионов вон в приобретение упомянутых активов и оборудования с дополнительными инвестициями в размере от 700 миллиардов вон до 1 триллиона вон.
Компания Micron Technology Taichung на Тайване была официально открыла Taichung Fab 4 в начале ноября 2023 года. Micron заявила, что Taichung Fab 4 будет интегрировать передовые функции тестирования памяти для массового производства HBM3e и других продуктов, тем самым удовлетворяя растущий спрос на различные приложения, такие как искусственный интеллект , центры обработки данных, периферийные и облачные вычисления. Компания планирует начать поставки HBM3e в начале 2024 года.
В своем последнем финансовом отчете SK Hynix заявила, что в секторе DRAM в 2023 году выручка ее основных продуктов DDR5 DRAM и HBM3 выросла более чем в четыре и пять раз соответственно по сравнению с предыдущим годом. В то же время, в ответ на растущий спрос на высокопроизводительную DRAM, SK Hynix будет плавно осуществлять массовое производство HBM3e для приложений искусственного интеллекта, а также исследования и разработки HBM4.