HBM、HBM2、HBM3、HBM3eの技術比較

HBM(高帯域幅メモリ)は、垂直に積み重ねられた複数の層のDRAMダイで構成されています。各層のダイはTSV(シリコン貫通ビア)技術によってロジックダイに接続されており、8層および12層のダイを小さなスペースにパッケージ化できます。これにより、小型サイズと高帯域幅および高伝送速度の両立が実現され、高性能AIサーバーGPUメモリの主流ソリューションとなっています。

現在HBM3の拡張バージョンであるHBM3Eは、最大8Gbpsの伝送速度と16GBのメモリを提供します。SK Hynixによって最初にリリースされ、2024年に量産される予定です。

HBMの主な応用シナリオはAIサーバーです。最新世代のHBM3eは、200年にNVIDIAがリリースするH2023に搭載されます。Trendforceのデータによると、AIサーバーの出荷台数は860,000年に2022万台に達し、2年にはAIサーバーの出荷台数が2026万台を超え、年平均成長率は29%になると予想されています。

AIサーバーの出荷台数の増加によりHBM需要が爆発的に増加し、サーバーの平均HBM容量の増加に伴い、15年後には市場規模が約25億米ドルに達し、成長率は50%を超えると予測されています。

HBMサプライヤーは主にSK Hynix、Samsung、Micronの53大ストレージメーカーに集中しています。Trendforceのデータによると、2023年のSK Hynixの市場シェアは38%、Samsungの市場シェアは9%、Micronの市場シェアはXNUMX%になると予想されています。HBMプロセスの主な変化は、CoWoSとTSVに反映されています。

HBM原理図

HBM原理図

HBM1 は、GDDR の競合製品として、2014 年に AMD と SK Hynix によって初めて発売されました。これは 4 層のダイ スタックで、128GB/秒の帯域幅と 4GB のメモリを提供し、同時期の GDDR5 よりも大幅に優れています。

HBM2は2016年に発表され、2018年に正式発売されました。4層DRAMダイですが、現在では主に8層ダイになっており、256GB/sの帯域幅、2.4Gbpsの伝送速度、8GBのメモリを提供しています。HBM2Eは2018年に提案され、2020年に正式発売されました。伝送速度とメモリが大幅に向上し、3.6Gbpsの伝送速度と16GBのメモリを提供しています。HBM3は2020年に発表され、2022年に正式発売されました。積層数と管理チャネルが増加し、6.4Gbpsの伝送速度、最大819GB/sの伝送速度、16GBのメモリを提供しています。HBM3EはSK HynixがリリースしたHBM3の強化版で、最大8Gbpsの伝送速度、24GBの容量を提供し、2024年に量産される予定です。

3大ストレージメーカーのHBM進化の軌跡

3大ストレージメーカーのHBM進化の軌跡

HBMは、高帯域幅、低消費電力、小型であることから、AIサーバーのシナリオで広く使用されています。HBMの応用は主に高性能サーバーに集中しています。100年にNVP2 GPU(HBM2016)に初めて実装され、その後、100年にV2(HBM2017)、100年にA2(HBM2020)、100年にH2(HBM3e / HBM2022)に適用されました。最新世代のHBM3eは、200年にNVIDIAがリリースしたH2023に搭載され、サーバーの速度と容量が向上します。

HBMサプライヤーは主にSK Hynix、Samsung、Micronの3大メーカーに集中しており、SK Hynixが先頭を走っています。2023大ストレージメーカーは主にDRAMダイの生産と積層を担当し、技術アップグレードで競争しています。その中でも、SK HynixとAMDがリリースした世界初のHBMは、2022年に新世代のHBM50Eを最初に供給し、市場での地位を確立しました。主にNVIDIAに供給し、Samsungは他のクラウドメーカーに供給しています。TrendForceのデータによると、40年のSK Hynixの市場シェアは10%、Samsungの市場シェアはXNUMX%、Micronの市場シェアは約XNUMX%でした。

HBM のパッケージング技術の変更は主に CoWoS と TSV にあります。

1) CoWoS: DRAMダイをシリコンインターポーザ上にまとめて配置し、チップウェーハ(CoW)パッケージングプロセスを介して下層の基板に接続します。つまり、チップをCoWパッケージングプロセスを介してシリコンウェーハに接続し、次にCoWチップを基板に接続してCoWoSに統合します。現在、HBMとGPUを統合する主流のソリューションはTSMCのCoWoSであり、相互接続長を短縮することでより高速なデータ転送を実現し、A100やGH200などのコンピューティングチップで広く使用されています。

2) TSV: TSV は容量と帯域幅の拡張を実現する核心であり、シリコン ウェーハの全厚に穴を開けることで、チップの前面と背面の間に数千の垂直相互接続を形成します。HBM では、複数の層の DRAM ダイが積み重ねられ、TVS とはんだバンプで接続され、最下層のダイのみがストレージ コントローラに接続され、残りのダイは内部 TSV を介して相互接続されます。

コメント

上へスクロール