HBM, или память с высокой пропускной способностью, состоит из нескольких слоев DRAM DRAM, расположенных вертикально. Каждый слой кристалла соединен с логическим кристаллом посредством технологии TSV (через кремний), что позволяет разместить 8-слойный и 12-слойный кристалл в небольшом пространстве. Это обеспечивает совместимость между небольшим размером, высокой пропускной способностью и высокой скоростью передачи, что делает его основным решением для высокопроизводительной памяти графического процессора сервера AI.
Текущая расширенная версия HBM3, HBM3E, обеспечивает скорость передачи до 8 Гбит/с и 16 ГБ памяти. Впервые он был выпущен компанией SK Hynix и будет запущен в массовое производство в 2024 году.
Основной сценарий применения HBM — серверы искусственного интеллекта. Последнее поколение HBM3e установлено на H200, выпущенном NVIDIA в 2023 году. По данным Trendforce, поставки ИИ-серверов достигли 860,000 2022 единиц в 2 году, и ожидается, что поставки ИИ-серверов превысят 2026 миллиона единиц в 29 году, при этом совокупный годовой объем поставок составит XNUMX XNUMX единиц. темп роста XNUMX%.
Рост поставок серверов искусственного интеллекта стал катализатором резкого роста спроса на HBM, а с увеличением средней мощности серверов HBM, по оценкам, размер рынка составит примерно 15 миллиардов долларов США через 25 лет, при этом темпы роста превысят 50%.
Поставщики HBM в основном сосредоточены в трех крупнейших производителях систем хранения данных: SK Hynix, Samsung и Micron. По данным Trendforce, ожидается, что в 53 году доля рынка SK Hynix составит 2023%, доля рынка Samsung — 38%, а доля рынка Micron — 9%. Основные изменения в процессе HBM отражаются на CoWoS и TSV.
Принципиальная схема HBM
HBM1 был впервые запущен AMD и SK Hynix в 2014 году как конкурент GDDR. Это четырехслойный стек кристаллов, обеспечивающий пропускную способность 4 ГБ/с и 128 ГБ памяти, что значительно лучше, чем GDDR4 того же периода.
HBM2 был анонсирован в 2016 году и официально запущен в 2018 году. Это 4-слойный кристалл DRAM, но теперь это в основном 8-слойный кристалл, обеспечивающий пропускную способность 256 ГБ/с, скорость передачи 2.4 Гбит/с и 8 ГБ памяти; HBM2E был предложен в 2018 году и официально запущен в 2020 году. Он значительно улучшил скорость передачи и память, обеспечив скорость передачи 3.6 Гбит/с и 16 ГБ памяти. HBM3 был анонсирован в 2020 году и официально запущен в 2022 году. Количество сложенных слоев и каналов управления увеличилось, обеспечивая скорость передачи 6.4 Гбит/с, скорость передачи до 819 ГБ/с и 16 ГБ памяти. HBM3E — это усовершенствованная версия HBM3, выпущенная SK Hynix, обеспечивающая скорость передачи данных до 8 Гбит/с, емкость 24 ГБ, массовое производство которой планируется в 2024 году.
Пути эволюции HBM трех основных производителей систем хранения данных
HBM широко используется в сценариях серверов искусственного интеллекта из-за его высокой пропускной способности, низкого энергопотребления и небольшого размера. Применение HBM в основном сосредоточено на высокопроизводительных серверах. Впервые он был реализован в графическом процессоре NVP100 (HBM2) в 2016 году, а затем применен в V100 (HBM2) в 2017 году, A100 (HBM2) в 2020 году и H100 (HBM2e/HBM3) в 2022 году. Последнее поколение HBM3e установлено на H200, выпущенный NVIDIA в 2023 году, обеспечивает более высокую скорость и большую емкость серверов.
Поставщики HBM в основном сконцентрированы в трех крупнейших производителях: SK Hynix, Samsung и Micron, при этом SK Hynix лидирует. Три крупнейших производителя систем хранения данных в основном отвечают за производство и комплектацию кристаллов DRAM и конкурируют в обновлении технологий. Среди них первый в мире HBM, выпущенный SK Hynix и AMD, первым представил новое поколение HBM3E в 2023 году, первым заняв свою позицию на рынке. В основном она поставляет продукцию NVIDIA, а Samsung — другим производителям облачных технологий. По данным TrendForce, в 2022 году доля рынка SK Hynix составила 50%, доля рынка Samsung — 40%, а доля рынка Micron — около 10%.
Изменения HBM в технологии упаковки касаются главным образом CoWoS и TSV.
1) CoWoS: кристалл DRAM размещается на кремниевом переходнике и соединяется с базовой подложкой посредством процесса упаковки ChiponWafer (CoW). То есть чип подключается к кремниевой пластине посредством процесса упаковки CoW, а затем чип CoW подключается к подложке для интеграции в CoWoS. В настоящее время основным решением для интеграции HBM и графического процессора является CoWoS от TSMC, который обеспечивает более быструю передачу данных за счет сокращения длины межсоединения и широко используется в таких вычислительных чипах, как A100 и GH200.
2) TSV: TSV является основой расширения емкости и пропускной способности, образуя тысячи вертикальных соединений между передней и задней частью чипа путем сверления отверстий по всей толщине кремниевой пластины. В HBM несколько слоев кристалла DRAM складываются и соединяются между собой TVS и выступами припоя, и только нижний кристалл может быть подключен к контроллеру хранилища, а остальные кристаллы соединены между собой через внутренние TSV.
Сопутствующие товары:
- Совместимый с NVIDIA MMA4Z00-NS400 400G OSFP SR4 Flat Top PAM4 850 нм 30 м на OM3/50 м на OM4 MTP/MPO-12 Многомодовый модуль оптического трансивера FEC $650.00
- NVIDIA MMA4Z00-NS-FLT Совместимый двухпортовый OSFP 800 Гбит/с 2x400G SR8 PAM4 850 нм 100 м DOM Двойной модуль оптического трансивера MPO-12 MMF $850.00
- NVIDIA MMA4Z00-NS Совместимый двухпортовый OSFP 800 Гбит/с 2x400G SR8 PAM4 850 нм 100 м DOM Двойной модуль оптического трансивера MPO-12 MMF $750.00
- NVIDIA MMS4X00-NM Совместимый двухпортовый OSFP 800 Гбит/с 2x400G PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Модуль оптического трансивера $1100.00
- Совместимый с NVIDIA MMS4X00-NM-FLT 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Модуль оптического трансивера $1200.00
- Совместимый с NVIDIA MMS4X00-NS400 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Модуль оптического трансивера $800.00
- Mellanox MMA1T00-HS, совместимый с 200G Infiniband HDR QSFP56 SR4, 850 нм, 100 м, MPO-12, модуль оптического приемопередатчика APC OM3/OM4 FEC PAM4 $200.00
- Совместимость с NVIDIA MFP7E10-N010, 10 волокон, длина 33 м (8 футов), низкие вносимые потери, гнездо-мама Магистральный кабель MPO, полярность B, APC-APC, LSZH, многомодовый OM3 50/125 $47.00
- Совместимый с NVIDIA MCP7Y00-N003-FLT 3 м (10 фута) 800G OSFP с двумя портами до 2x400G Flat Top OSFP InfiniBand NDR Breakout DAC $275.00
- NVIDIA MCP7Y70-H002 Совместимость с двумя портами 2G, 7 м (400 фута), от 2x200G OSFP до 4x100G QSFP56, медный кабель прямого подключения с пассивной разводкой $155.00
- NVIDIA MCA4J80-N003-FTF, совместимый с двумя портами 3G, 10 м (800 футов), 2x400G OSFP на 2x400G OSFP, активный медный кабель InfiniBand NDR, плоская верхняя часть на одном конце и ребристая верхняя часть на другом $600.00
- NVIDIA MCP7Y10-N002, совместимый с двухпортовым OSFP 2G InfiniBand NDR длиной 7 м (800 фута) с 2x400G QSFP112 Breakout ЦАП $200.00