HBM(高帯域幅メモリ)は、垂直に積み重ねられた複数の層のDRAMダイで構成されています。各層のダイはTSV(シリコン貫通ビア)技術によってロジックダイに接続されており、8層および12層のダイを小さなスペースにパッケージ化できます。これにより、小型サイズと高帯域幅および高伝送速度の両立が実現され、高性能AIサーバーGPUメモリの主流ソリューションとなっています。
現在HBM3の拡張バージョンであるHBM3Eは、最大8Gbpsの伝送速度と16GBのメモリを提供します。SK Hynixによって最初にリリースされ、2024年に量産される予定です。
HBMの主な応用シナリオはAIサーバーです。最新世代のHBM3eは、200年にNVIDIAがリリースするH2023に搭載されます。Trendforceのデータによると、AIサーバーの出荷台数は860,000年に2022万台に達し、2年にはAIサーバーの出荷台数が2026万台を超え、年平均成長率は29%になると予想されています。
AIサーバーの出荷台数の増加によりHBM需要が爆発的に増加し、サーバーの平均HBM容量の増加に伴い、15年後には市場規模が約25億米ドルに達し、成長率は50%を超えると予測されています。
HBMサプライヤーは主にSK Hynix、Samsung、Micronの53大ストレージメーカーに集中しています。Trendforceのデータによると、2023年のSK Hynixの市場シェアは38%、Samsungの市場シェアは9%、Micronの市場シェアはXNUMX%になると予想されています。HBMプロセスの主な変化は、CoWoSとTSVに反映されています。
HBM原理図
HBM1 は、GDDR の競合製品として、2014 年に AMD と SK Hynix によって初めて発売されました。これは 4 層のダイ スタックで、128GB/秒の帯域幅と 4GB のメモリを提供し、同時期の GDDR5 よりも大幅に優れています。
HBM2は2016年に発表され、2018年に正式発売されました。4層DRAMダイですが、現在では主に8層ダイになっており、256GB/sの帯域幅、2.4Gbpsの伝送速度、8GBのメモリを提供しています。HBM2Eは2018年に提案され、2020年に正式発売されました。伝送速度とメモリが大幅に向上し、3.6Gbpsの伝送速度と16GBのメモリを提供しています。HBM3は2020年に発表され、2022年に正式発売されました。積層数と管理チャネルが増加し、6.4Gbpsの伝送速度、最大819GB/sの伝送速度、16GBのメモリを提供しています。HBM3EはSK HynixがリリースしたHBM3の強化版で、最大8Gbpsの伝送速度、24GBの容量を提供し、2024年に量産される予定です。
3大ストレージメーカーのHBM進化の軌跡
HBMは、高帯域幅、低消費電力、小型であることから、AIサーバーのシナリオで広く使用されています。HBMの応用は主に高性能サーバーに集中しています。100年にNVP2 GPU(HBM2016)に初めて実装され、その後、100年にV2(HBM2017)、100年にA2(HBM2020)、100年にH2(HBM3e / HBM2022)に適用されました。最新世代のHBM3eは、200年にNVIDIAがリリースしたH2023に搭載され、サーバーの速度と容量が向上します。
HBMサプライヤーは主にSK Hynix、Samsung、Micronの3大メーカーに集中しており、SK Hynixが先頭を走っています。2023大ストレージメーカーは主にDRAMダイの生産と積層を担当し、技術アップグレードで競争しています。その中でも、SK HynixとAMDがリリースした世界初のHBMは、2022年に新世代のHBM50Eを最初に供給し、市場での地位を確立しました。主にNVIDIAに供給し、Samsungは他のクラウドメーカーに供給しています。TrendForceのデータによると、40年のSK Hynixの市場シェアは10%、Samsungの市場シェアはXNUMX%、Micronの市場シェアは約XNUMX%でした。
HBM のパッケージング技術の変更は主に CoWoS と TSV にあります。
1) CoWoS: DRAMダイをシリコンインターポーザ上にまとめて配置し、チップウェーハ(CoW)パッケージングプロセスを介して下層の基板に接続します。つまり、チップをCoWパッケージングプロセスを介してシリコンウェーハに接続し、次にCoWチップを基板に接続してCoWoSに統合します。現在、HBMとGPUを統合する主流のソリューションはTSMCのCoWoSであり、相互接続長を短縮することでより高速なデータ転送を実現し、A100やGH200などのコンピューティングチップで広く使用されています。
2) TSV: TSV は容量と帯域幅の拡張を実現する核心であり、シリコン ウェーハの全厚に穴を開けることで、チップの前面と背面の間に数千の垂直相互接続を形成します。HBM では、複数の層の DRAM ダイが積み重ねられ、TVS とはんだバンプで接続され、最下層のダイのみがストレージ コントローラに接続され、残りのダイは内部 TSV を介して相互接続されます。
関連製品:
- NVIDIA MMA4Z00-NS400 互換 400G OSFP SR4 フラットトップ PAM4 850nm OM30 で 3m/OM50 で 4m MTP/MPO-12 マルチモード FEC 光トランシーバ モジュール $650.00
- NVIDIA MMA4Z00-NS-FLT 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $850.00
- NVIDIA MMA4Z00-NS 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $750.00
- NVIDIA MMS4X00-NM 互換 800Gb/s ツインポート OSFP 2x400G PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1100.00
- NVIDIA MMS4X00-NM-FLT 互換 800G ツインポート OSFP 2x400G フラットトップ PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1200.00
- NVIDIA MMS4X00-NS400 互換 400G OSFP DR4 フラットトップ PAM4 1310nm MTP/MPO-12 500m SMF FEC 光トランシーバー モジュール $800.00
- Mellanox MMA1T00-HS 互換 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 光トランシーバー モジュール $200.00
- NVIDIA MFP7E10-N010 互換 10 メートル (33 フィート) 8 ファイバー 低挿入損失 メス - メス MPO トランク ケーブル 極性 B APC - APC LSZH マルチモード OM3 50/125 $47.00
- NVIDIA MCP7Y00-N003-FLT 互換 3m (10 フィート) 800G ツインポート OSFP ~ 2x400G フラットトップ OSFP InfiniBand NDR ブレイクアウト DAC $275.00
- NVIDIA MCP7Y70-H002 互換 2m (7 フィート) 400G ツインポート 2x200G OSFP から 4x100G QSFP56 パッシブ ブレークアウト ダイレクト アタッチ銅線ケーブル $155.00
- NVIDIA MCA4J80-N003-FTF 互換 3m (10 フィート) 800G ツインポート 2x400G OSFP から 2x400G OSFP InfiniBand NDR アクティブ銅線ケーブル、一方の端はフラット トップ、もう一方の端はフィン付きトップ $600.00
- NVIDIA MCP7Y10-N002 互換性のある 2m (7 フィート) 800G InfiniBand NDR ツインポート OSFP から 2x400G QSFP112 ブレイクアウト DAC $200.00