HBM, HBM2, HBM3, HBM3e의 기술 비교

HBM(고대역폭 메모리)은 수직으로 쌓인 여러 레이어의 DRAM 다이로 구성됩니다. Die의 각 레이어는 TSV(through Silicon Via) 기술을 통해 로직 다이와 연결되어 8레이어 및 12레이어 다이를 작은 공간에 패키징할 수 있습니다. 이는 작은 크기와 높은 대역폭, 높은 전송 속도 간의 호환성을 달성하여 고성능 AI 서버 GPU 메모리의 주류 솔루션이 됩니다.

현재 HBM3의 확장 버전인 HBM3E는 최대 8Gbps의 전송 속도와 16GB의 메모리를 제공한다. SK하이닉스가 처음 출시했으며 2024년 양산 예정이다.

HBM의 주요 응용 시나리오는 AI 서버입니다. 3년 엔비디아가 출시한 H200에는 최신 세대 HBM2023e가 탑재됐다. 트렌드포스 데이터에 따르면 AI 서버 출하량은 860,000년 2022만대에 이르렀고, 2년에는 AI 서버 출하량이 2026만대를 넘어설 것으로 예상된다. 성장률 29%.

AI 서버 출하량 증가는 HBM 수요 폭발을 촉발했고, 서버의 평균 HBM 용량 증가로 인해 향후 15년간 시장 규모가 약 25억 달러(약 50조 원)에 이를 것으로 추산된다. XNUMX%.

HBM 공급업체는 주로 SK 하이닉스, 삼성, 마이크론 등 53대 스토리지 제조업체에 집중되어 있습니다. 트렌드포스 자료에 따르면 2023년 SK하이닉스의 시장점유율은 38%, 삼성의 시장점유율은 9%, 마이크론의 시장점유율은 XNUMX%로 예상된다. HBM 프로세스의 주요 변경 사항은 CoWoS 및 TSV에 반영됩니다.

HBM 원리도

HBM 원리도

HBM1은 2014년 AMD와 SK 하이닉스가 GDDR의 경쟁자로 처음 출시했습니다. 4GB/s의 대역폭과 128GB의 메모리를 제공하는 4레이어 다이 스택으로, 이는 같은 시기의 GDDR5보다 훨씬 뛰어납니다.

HBM2는 2016년에 발표되었으며 off2018년에 처음 출시되었습니다. 4레이어 DRAM 다이이지만 지금은 대부분 8레이어 다이로 구성되어 256GB/s 대역폭, 2.4Gbps 전송 속도 및 8GB 메모리를 제공합니다. HBM2E는 2018년에 제안되었으며, off2020년 정식 출시되었습니다. 전송 속도와 메모리가 대폭 향상되어 3.6Gbps 전송 속도와 16GB 메모리를 제공합니다. HBM3은 2020년에 발표되었으며 off2022년 정식 출시되었습니다. 스택 레이어 수와 관리 채널을 늘려 전송 속도 6.4Gbps, 최대 전송 속도 819GB/s, 메모리 16GB를 제공합니다. HBM3E는 SK하이닉스가 출시한 HBM3의 향상된 버전으로 최대 전송 속도 8Gbps, 용량 24GB를 제공하며 2024년 양산 예정이다.

3대 스토리지 제조업체의 HBM 진화 경로

3대 스토리지 제조업체의 HBM 진화 경로

HBM은 높은 대역폭, 낮은 전력 소비 및 작은 크기로 인해 AI 서버 시나리오에 널리 사용됩니다. HBM의 적용은 주로 고성능 서버에 집중되어 있습니다. 100년 NVP2 GPU(HBM2016)에 처음 구현된 뒤 100년 V2(HBM2017), 100년 A2(HBM2020), 100년 H2(HBM3e/HBM2022)에 적용됐다. NVIDIA가 3년에 출시한 H200은 서버에 더 빠른 속도와 더 높은 용량을 제공합니다.

HBM 공급업체는 주로 SK하이닉스, 삼성, 마이크론 등 3개 주요 제조업체에 집중되어 있으며, SK하이닉스가 선두를 달리고 있습니다. 주요 스토리지 제조사 2023곳은 주로 DRAM 다이의 생산과 적층을 담당하며 기술 업그레이드 경쟁을 벌이고 있다. 이 중 SK하이닉스와 AMD가 출시한 세계 최초 HBM은 2022년 차세대 HBM50E를 최초로 공급하며 시장 지위를 최초로 확립했다. 주로 NVIDIA를 공급하고 삼성은 다른 클라우드 제조업체에 공급합니다. 트렌드포스 자료에 따르면 40년 기준 SK하이닉스의 시장점유율은 10%, 삼성의 시장점유율은 XNUMX%, 마이크론의 시장점유율은 약 XNUMX%이다.

HBM의 패키징 기술 변화는 주로 CoWoS와 TSV에 있습니다.

1) CoWoS: DRAM 다이가 실리콘 인터포저 위에 함께 배치되고 CoW(ChiponWafer) 패키징 공정을 통해 하부 기판에 연결됩니다. 즉, CoW 패키징 공정을 통해 칩을 실리콘 웨이퍼에 연결한 후, CoW 칩을 기판에 연결하여 CoWoS에 집적시키는 방식이다. 현재 HBM과 GPU를 통합하는 주류 솔루션은 TSMC의 CoWoS로, 상호 연결 길이를 줄여 더 빠른 데이터 전송을 구현하고 A100, GH200 등 컴퓨팅 칩에 널리 사용됐다.

2) TSV : TSV는 실리콘 웨이퍼의 전체 두께에 구멍을 뚫어 칩의 앞면과 뒷면 사이에 수천 개의 수직 상호 연결을 형성하여 용량 및 대역폭 확장을 달성하는 핵심입니다. HBM에서는 DRAM 다이의 여러 레이어가 적층되어 TVS와 솔더 범프를 연결하며 하단 다이만 스토리지 컨트롤러에 연결될 수 있고 나머지 다이는 내부 TSV를 통해 상호 연결됩니다.

코멘트 남김

위쪽으로 스크롤