AMD: AI液体冷却市場の未来を切り拓く

急速に進化するAIインフラストラクチャにおいて、AMDは特に液体冷却技術において、ゲームチェンジャーとして台頭しています。データセンターがパフォーマンスと効率性の限界を押し広げる中、AMDの最新の技術革新は新たなベンチマークを確立しています。光通信製品およびソリューションの専門プロバイダーであるFiberMallは、世界中のデータセンター、クラウドコンピューティング環境、エンタープライズネットワーク、アクセスネットワーク、ワイヤレスシステム向けに、費用対効果の高いソリューションを提供することに尽力しています。AI対応通信ネットワークにおけるリーダーシップで知られるFiberMallは、高品質で価値重視の光通信ソリューションをお探しのお客様にとって理想的なパートナーです。詳細については、公式ウェブサイトをご覧いただくか、カスタマーサポートチームに直接お問い合わせください。

このブログでは、大規模GPUクラスターから革新的なMI350シリーズまで、AMDのAI液体冷却における画期的な開発について解説します。AI愛好家、データセンター運営者、テクノロジー投資家など、どなたにとっても、これらの洞察は、AMDが次世代AIコンピューティングの風向計となりつつある理由を明確に示しています。

TensorWave、北米最大のAMD液冷サーバークラスターを導入

AIインフラストラクチャの新興企業TensorWaveは、北米最大規模のAMD GPUトレーニングクラスターの導入に成功したと発表しました。8,192基のInstinct MI325X GPUアクセラレーターを搭載したこのクラスターは、このGPUモデルを採用した初の大規模直接液体冷却(DLC)クラスターとなります。

液冷クラスター

TensorWaveはAMDの最先端ハードウェアに注力することで、企業、研究機関、開発者向けの効率的なコンピューティングプラットフォームを実現します。この巨大なクラスターは、規模の記録を樹立するだけでなく、AI開発に新たな勢いをもたらします。業界アナリストは、AMDベースのクラスターは優れたコスト効率を提供し、従来のクラスターと比較して最大30%のコスト削減が可能だと指摘しています。 NVIDIAのDGXシステム 同等の計算能力を実現します。

AMD GPUを導入する組織が増えるにつれて、AIインフラコストはさらに低下し、業界全体でAI導入が加速する可能性があります。FiberMallは、このような高性能な環境における光通信のニーズに対し、シームレスなデータ伝送を実現する信頼性の高いAI最適化ソリューションを提供します。

AMD、完全液冷アーキテクチャ搭載のMI350チップを発表

AMD、完全液冷アーキテクチャ搭載のMI350チップを発表、市場の注目を集める

12年2025月2025日、AMDはカリフォルニア州サンノゼで「Advancing AI 350」カンファレンスを開催し、Instinct MI2,304シリーズGPUアクセラレータを正式に発表しました。これらのGPUは、マルチカード連携による超大規模コンピューティングクラスターを実現し、単一ノードで最大3枚のカードを並列にサポートし、80.5GBのHBM8Eメモリを搭載しています。FP161精度演算では6PFlops以上、FP4/FP200低精度演算ではXNUMXPFlopsの性能を達成し、NVIDIAのGBXNUMXに匹敵します。

カード間接続には双方向のInfinity Fabricチャネルを使用し、CPU接続には128GB/秒のPCIe 5.0を採用することでボトルネックのないデータ転送を実現します。AMDは空冷式と液冷式の両方を提供しています。空冷式は最大64枚のカードに対応し、液冷式は128枚のカード(2U~5Uラック)まで拡張可能で、多様なスーパーコンピューティングニーズに対応します。

MI350
MI355
実績のあるラックスケールソリューション

MI350Xモジュールは空冷で1,000Wの消費電力ですが、高性能なMI355Xは主に液冷方式で1,400Wの消費電力となります。Supermicro、Pegatron、Gigabyteなどのパートナーは、既にMI350シリーズの液冷サーバーを発売しています。

MI350Xモジュールは空冷で1,000Wを消費する
空冷式の
世界のハイエンドAIチップ市場

世界のハイエンドAIチップ市場では、NVIDIAが80%以上のシェアを占めていますが、AMDのMI350がGB200に匹敵する性能で復活を遂げたことは、変化の兆しを示しています。水冷エコシステムにおいては、AMDの進歩はNVIDIAの優位性に代わる選択肢を提供し、より健全な競争を促進します。大手ハイパースケーラーやNeo Cloudなどの主要クラウドプロバイダーはMI350を導入し、Dell、HPE、Supermicroもこれに追随します。量産は今月初めに開始され、最初のパートナーサーバーとCSPインスタンスは3年第2025四半期に予定されています。 水冷式 バリアント。

AI対応

AI 対応光ネットワークに関する FiberMall の専門知識はこれらの展開を補完し、高帯域幅 AI クラスターにコスト効率の高い相互接続を提供します。

AMDの液体冷却市場への推進力

NVIDIAのほぼ独占状態は、液冷技術の進歩を自社のエコシステムに結び付けており、パートナーを阻むような制限的なホワイトリストも存在します。AMDの大規模液冷クラスターとMI350の発売は大きな追い風となり、Huaweiなどの競合企業と並んでNVIDIAにとって大きな脅威となる可能性があります。これは、NVIDIAの傘下ではない液冷システムサプライヤーの活性化につながる可能性があります。

AMDは、MI350によりAIプラットフォームのエネルギー効率が38年以内に20倍に向上し、2030年までにさらに95倍の向上を実現し、エネルギー使用量を最大XNUMX%削減する計画だと主張している。

詳細: AMD MI350 シリーズ チップ、OAM、UBB、液冷サーバー、ラック導入

AMDはAdvancing AI 2025で、NVIDIAのBlackwellと真っ向から競合するMI350XやMI350Xを含むInstinct MI355シリーズを発表しました。

1771-2585c4d9a774b14c07552820192fdd11

インスティンクト MI350 概要

両モデルとも、288TB/秒の帯域幅を持つ3GB HBM8Eメモリを搭載しています。MI355Xは、FP64で79TFlops、FP16で5PFlops、FP8で10PFlops、FP6/FP4で20PFlopsのフルパフォーマンスを実現し、最大1,400W TDPを実現します。MI350Xは8%スケールダウンされ、FP18.4で4W TDPで最大1,000PFlopsを実現します。

AMD Instinct MI350シリーズチップ

MI350X と MI355X は、TSMC の 3nm (N3P) および 3nm プロセスを使用した 6D ハイブリッド ボンディング アーキテクチャに基づいて構築されたチップ設計を共有しています。

AMD-Instinct-MI350-パッケージ
AMD-Instinct-MI350-パッケージアングル

比較: AMD MI350X vs. NVIDIA B200/GB200

AMD MI350XNVIDIA B200NVIDIA GB200
アーキテクチャCDNA 4(3Dハイブリッド結合)ブラックウェル(デュアルダイ統合)Blackwell + Grace CPU (デュアル B200 + 1 Grace)
プロセスノードTSMC 3nm (N3P) + 6nm (IOD) ハイブリッドパッケージTSMC 4nm(N4P)TSMC 4nm(N4P)
トランジスタ185億208億416億(デュアルB200)
メモリ構成288GB HBM3E(12Hiスタック)、8TB/s帯域幅192GB HBM3E(8Hiスタック)、7.7TB/s帯域幅384GB HBM3E(デュアルB200)、15.4TB/秒の帯域幅
FP4計算18.4 PFLOPS(36.8 PFLOPS スパース)20 PFLOPS(FP4 高密度)40 PFLOPS(デュアルB200)
FP8計算9.2 PFLOPS(18.4 PFLOPS スパース)10PFLOPS20PFLOPS
FP32計算144 TFLOPS75 TFLOPS150 TFLOPS
FP64計算72 TFLOPS(2x B200倍精度)37 TFLOPS74 TFLOPS
インターコネクト153.6GB/秒のインフィニティファブリック(8カード/ノード)、128カードまでのウルトライーサネット1.8TB/秒 NVLink 5.0(カードあたり)、NVL576 に 72 枚のカード1.8TB/秒 NVLink 5.0 (B200 あたり)、129.6 カード クラスタで 72TB/秒双方向
消費電力1000W(空冷)1000W(液冷式)2700W(デュアルB200 + グレース)
ソフトウェアエコシステムPyTorch/TensorFlow 最適化、FP7/FP4 サポートを備えた ROCm 6CUDA 12.5+(FP4/FP8 精度、TensorRT-LLM 推論対応)CUDA 12.5+ と Grace CPU 最適化による XNUMX 兆パラメータモデル
典型的な性能Llama 3.1 405B推論はB30より200%高速、8カードFP4で147 PFLOPSGPT-3 トレーニング 4x H100; シングルカード FP4 推論 5x H10072枚のNVL72 FP4カードで1.4 EFLOPS、推論コストはH25より100%低い
価格(2025年)25,000ドル(最近67%増加、まだB17より200%低い)$30,00060,000ドル以上(デュアルB200 + グレース)
効率化ワットあたりのHBM帯域幅が30%向上、B40よりも200ドルあたりのトークンがXNUMX%増加トランジスタあたりのFP25が4%向上、NVLink効率が50%向上FP14.8の液体冷却で4 PFLOPS/W
分化独自の FP6/FP4 デュアル精度推論、288B パラメータ モデルで 520GBFP2向け第4世代トランスフォーマーエンジン、信頼性のためのチップレベルRASGrace CPU 統合メモリ; データ読み込み用解凍エンジン

MI350Xは、B60(200GB)と比較して192%多いメモリを搭載し、帯域幅も同等です。FP64/FP32では約1倍、FP6では最大1.2倍、低精度では約10%の性能向上を実現しています。推論性能は同等または30%上回り、学習性能はFP10の微調整において同等または8%以上向上しています。しかも、コスト効率は高く(40ドルあたりのトークン数はXNUMX%増加)、その効果は計り知れません。

AMD Instinct MI350 OAM

OAM フォーム ファクターはコンパクトで、MI325X に似た厚い PCB を備えています。

AMD-Instinct-MI350-OAM-パッケージ-800x522

AMD インスティンクト MI350 UBB

これは、MI350 OAM パッケージを他の XNUMX つの GPU とともに UBB にインストールしたもので、合計 XNUMX つです。

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし2)

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし2)

これが別の角度からの視点です。

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし1)

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし1)

以下は、8 つの GPU がインストールされた UBB 全体の概要です。

AMD Instinct MI350 UBB 8 GPU 冷却なし

AMD Instinct MI350 UBB 8 GPU 冷却なし

多くの点で、これは前世代の AMD Instinct MI325X ボードに似ており、それがポイントです。

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし3)

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし3)

一方の端には、UBB コネクタと PCIe リタイマー用のヒートシンクがあります。

AMD Instinct MI350X UBB PCIe リタイマー

管理用のSMCもあります。

AMD インスティンクト MI350 SMC

AMD インスティンクト MI350 SMC

ボード自体以外にも、冷却機能もあります。

AMD Instinct MI350X 空冷

こちらは大型の空冷ヒートシンクを搭載したOAMモジュールです。この空冷式はAMD Instinct MI350Xです。

AMD Instinct MI350X クーラー

AMD Instinct MI350X クーラー

UBBには8つあります。これは上で見たものと似ていますが、大きなヒートシンクが8つあります。

AMD Instinct MI350X UBB 8 GPU

AMD Instinct MI350X UBB 8 GPU

こちらは、SMC とハンドル側から見たヒートシンクの別のビューです。

AMD Instinct MI350X UBB 8 GPU ヒートシンク プロファイル

AMD Instinct MI350X UBB 8 GPU ヒートシンク プロファイル

参考までに、AMD MI300X の UBB を以下に示します。

MI300X 8 GPU OAM UBB 1

AMD MI300X 8 GPU OAM UBB 1

AMD には、より高い TDP とカードあたりのより高いパフォーマンスを可能にする MI355X 液冷バージョンもあります。

AMD MI350シリーズ AIサーバー

パートナーには、Supermicro (4U/2U 液体冷却、最大 355 台の MI7X)、Compal (4U、最大 355 台)、ASRock (XNUMXU、XNUMX 台の MIXNUMXX) などがあります。

MI350ラックの導入

シングルノードは最大2,304枚のカード(メモリ161GB、FP6/FP4で最大64PFlops)まで拡張可能です。空冷は128枚まで、水冷は128枚まで拡張可能です。36枚のカード構成では、2.57TBのメモリと最大6EFlopsのFP4/FPXNUMXを実現します。

結論:AMDの液体冷却革命

AMDのMI350シリーズとTensorWaveのクラスターは、AI液体冷却における重要な転換を象徴し、独占状態に挑戦し、効率性を向上させます。AIの需要が急増する中、これらのイノベーションはコスト削減と拡張性を約束します。

FiberMallは、最高レベルの光通信ソリューションでお客様のAIインフラをサポートいたします。ウェブサイトをご覧いただくか、カスタマーサポートまでお問い合わせください。お客様に合わせたアドバイスをご提供いたします。

コメント

上へスクロール