急速に進化するAIインフラストラクチャにおいて、AMDは特に液体冷却技術において、ゲームチェンジャーとして台頭しています。データセンターがパフォーマンスと効率性の限界を押し広げる中、AMDの最新の技術革新は新たなベンチマークを確立しています。光通信製品およびソリューションの専門プロバイダーであるFiberMallは、世界中のデータセンター、クラウドコンピューティング環境、エンタープライズネットワーク、アクセスネットワーク、ワイヤレスシステム向けに、費用対効果の高いソリューションを提供することに尽力しています。AI対応通信ネットワークにおけるリーダーシップで知られるFiberMallは、高品質で価値重視の光通信ソリューションをお探しのお客様にとって理想的なパートナーです。詳細については、公式ウェブサイトをご覧いただくか、カスタマーサポートチームに直接お問い合わせください。
このブログでは、大規模GPUクラスターから革新的なMI350シリーズまで、AMDのAI液体冷却における画期的な開発について解説します。AI愛好家、データセンター運営者、テクノロジー投資家など、どなたにとっても、これらの洞察は、AMDが次世代AIコンピューティングの風向計となりつつある理由を明確に示しています。
TensorWave、北米最大のAMD液冷サーバークラスターを導入
AIインフラストラクチャの新興企業TensorWaveは、北米最大規模のAMD GPUトレーニングクラスターの導入に成功したと発表しました。8,192基のInstinct MI325X GPUアクセラレーターを搭載したこのクラスターは、このGPUモデルを採用した初の大規模直接液体冷却(DLC)クラスターとなります。

TensorWaveはAMDの最先端ハードウェアに注力することで、企業、研究機関、開発者向けの効率的なコンピューティングプラットフォームを実現します。この巨大なクラスターは、規模の記録を樹立するだけでなく、AI開発に新たな勢いをもたらします。業界アナリストは、AMDベースのクラスターは優れたコスト効率を提供し、従来のクラスターと比較して最大30%のコスト削減が可能だと指摘しています。 NVIDIAのDGXシステム 同等の計算能力を実現します。
AMD GPUを導入する組織が増えるにつれて、AIインフラコストはさらに低下し、業界全体でAI導入が加速する可能性があります。FiberMallは、このような高性能な環境における光通信のニーズに対し、シームレスなデータ伝送を実現する信頼性の高いAI最適化ソリューションを提供します。

AMD、完全液冷アーキテクチャ搭載のMI350チップを発表、市場の注目を集める
12年2025月2025日、AMDはカリフォルニア州サンノゼで「Advancing AI 350」カンファレンスを開催し、Instinct MI2,304シリーズGPUアクセラレータを正式に発表しました。これらのGPUは、マルチカード連携による超大規模コンピューティングクラスターを実現し、単一ノードで最大3枚のカードを並列にサポートし、80.5GBのHBM8Eメモリを搭載しています。FP161精度演算では6PFlops以上、FP4/FP200低精度演算ではXNUMXPFlopsの性能を達成し、NVIDIAのGBXNUMXに匹敵します。
カード間接続には双方向のInfinity Fabricチャネルを使用し、CPU接続には128GB/秒のPCIe 5.0を採用することでボトルネックのないデータ転送を実現します。AMDは空冷式と液冷式の両方を提供しています。空冷式は最大64枚のカードに対応し、液冷式は128枚のカード(2U~5Uラック)まで拡張可能で、多様なスーパーコンピューティングニーズに対応します。



MI350Xモジュールは空冷で1,000Wの消費電力ですが、高性能なMI355Xは主に液冷方式で1,400Wの消費電力となります。Supermicro、Pegatron、Gigabyteなどのパートナーは、既にMI350シリーズの液冷サーバーを発売しています。



世界のハイエンドAIチップ市場では、NVIDIAが80%以上のシェアを占めていますが、AMDのMI350がGB200に匹敵する性能で復活を遂げたことは、変化の兆しを示しています。水冷エコシステムにおいては、AMDの進歩はNVIDIAの優位性に代わる選択肢を提供し、より健全な競争を促進します。大手ハイパースケーラーやNeo Cloudなどの主要クラウドプロバイダーはMI350を導入し、Dell、HPE、Supermicroもこれに追随します。量産は今月初めに開始され、最初のパートナーサーバーとCSPインスタンスは3年第2025四半期に予定されています。 水冷式 バリアント。

AI 対応光ネットワークに関する FiberMall の専門知識はこれらの展開を補完し、高帯域幅 AI クラスターにコスト効率の高い相互接続を提供します。
AMDの液体冷却市場への推進力
NVIDIAのほぼ独占状態は、液冷技術の進歩を自社のエコシステムに結び付けており、パートナーを阻むような制限的なホワイトリストも存在します。AMDの大規模液冷クラスターとMI350の発売は大きな追い風となり、Huaweiなどの競合企業と並んでNVIDIAにとって大きな脅威となる可能性があります。これは、NVIDIAの傘下ではない液冷システムサプライヤーの活性化につながる可能性があります。
AMDは、MI350によりAIプラットフォームのエネルギー効率が38年以内に20倍に向上し、2030年までにさらに95倍の向上を実現し、エネルギー使用量を最大XNUMX%削減する計画だと主張している。
詳細: AMD MI350 シリーズ チップ、OAM、UBB、液冷サーバー、ラック導入
AMDはAdvancing AI 2025で、NVIDIAのBlackwellと真っ向から競合するMI350XやMI350Xを含むInstinct MI355シリーズを発表しました。

インスティンクト MI350 概要
両モデルとも、288TB/秒の帯域幅を持つ3GB HBM8Eメモリを搭載しています。MI355Xは、FP64で79TFlops、FP16で5PFlops、FP8で10PFlops、FP6/FP4で20PFlopsのフルパフォーマンスを実現し、最大1,400W TDPを実現します。MI350Xは8%スケールダウンされ、FP18.4で4W TDPで最大1,000PFlopsを実現します。
AMD Instinct MI350シリーズチップ
MI350X と MI355X は、TSMC の 3nm (N3P) および 3nm プロセスを使用した 6D ハイブリッド ボンディング アーキテクチャに基づいて構築されたチップ設計を共有しています。


比較: AMD MI350X vs. NVIDIA B200/GB200
AMD MI350X | NVIDIA B200 | NVIDIA GB200 | |
アーキテクチャ | CDNA 4(3Dハイブリッド結合) | ブラックウェル(デュアルダイ統合) | Blackwell + Grace CPU (デュアル B200 + 1 Grace) |
プロセスノード | TSMC 3nm (N3P) + 6nm (IOD) ハイブリッドパッケージ | TSMC 4nm(N4P) | TSMC 4nm(N4P) |
トランジスタ | 185億 | 208億 | 416億(デュアルB200) |
メモリ構成 | 288GB HBM3E(12Hiスタック)、8TB/s帯域幅 | 192GB HBM3E(8Hiスタック)、7.7TB/s帯域幅 | 384GB HBM3E(デュアルB200)、15.4TB/秒の帯域幅 |
FP4計算 | 18.4 PFLOPS(36.8 PFLOPS スパース) | 20 PFLOPS(FP4 高密度) | 40 PFLOPS(デュアルB200) |
FP8計算 | 9.2 PFLOPS(18.4 PFLOPS スパース) | 10PFLOPS | 20PFLOPS |
FP32計算 | 144 TFLOPS | 75 TFLOPS | 150 TFLOPS |
FP64計算 | 72 TFLOPS(2x B200倍精度) | 37 TFLOPS | 74 TFLOPS |
インターコネクト | 153.6GB/秒のインフィニティファブリック(8カード/ノード)、128カードまでのウルトライーサネット | 1.8TB/秒 NVLink 5.0(カードあたり)、NVL576 に 72 枚のカード | 1.8TB/秒 NVLink 5.0 (B200 あたり)、129.6 カード クラスタで 72TB/秒双方向 |
消費電力 | 1000W(空冷) | 1000W(液冷式) | 2700W(デュアルB200 + グレース) |
ソフトウェアエコシステム | PyTorch/TensorFlow 最適化、FP7/FP4 サポートを備えた ROCm 6 | CUDA 12.5+(FP4/FP8 精度、TensorRT-LLM 推論対応) | CUDA 12.5+ と Grace CPU 最適化による XNUMX 兆パラメータモデル |
典型的な性能 | Llama 3.1 405B推論はB30より200%高速、8カードFP4で147 PFLOPS | GPT-3 トレーニング 4x H100; シングルカード FP4 推論 5x H100 | 72枚のNVL72 FP4カードで1.4 EFLOPS、推論コストはH25より100%低い |
価格(2025年) | 25,000ドル(最近67%増加、まだB17より200%低い) | $30,000 | 60,000ドル以上(デュアルB200 + グレース) |
効率化 | ワットあたりのHBM帯域幅が30%向上、B40よりも200ドルあたりのトークンがXNUMX%増加 | トランジスタあたりのFP25が4%向上、NVLink効率が50%向上 | FP14.8の液体冷却で4 PFLOPS/W |
分化 | 独自の FP6/FP4 デュアル精度推論、288B パラメータ モデルで 520GB | FP2向け第4世代トランスフォーマーエンジン、信頼性のためのチップレベルRAS | Grace CPU 統合メモリ; データ読み込み用解凍エンジン |
MI350Xは、B60(200GB)と比較して192%多いメモリを搭載し、帯域幅も同等です。FP64/FP32では約1倍、FP6では最大1.2倍、低精度では約10%の性能向上を実現しています。推論性能は同等または30%上回り、学習性能はFP10の微調整において同等または8%以上向上しています。しかも、コスト効率は高く(40ドルあたりのトークン数はXNUMX%増加)、その効果は計り知れません。
AMD Instinct MI350 OAM
OAM フォーム ファクターはコンパクトで、MI325X に似た厚い PCB を備えています。

AMD インスティンクト MI350 UBB
これは、MI350 OAM パッケージを他の XNUMX つの GPU とともに UBB にインストールしたもので、合計 XNUMX つです。

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし2)
これが別の角度からの視点です。

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし1)
以下は、8 つの GPU がインストールされた UBB 全体の概要です。

AMD Instinct MI350 UBB 8 GPU 冷却なし
多くの点で、これは前世代の AMD Instinct MI325X ボードに似ており、それがポイントです。

AMD Instinct MI350(UBB 8 GPU搭載、冷却なし3)
一方の端には、UBB コネクタと PCIe リタイマー用のヒートシンクがあります。

AMD Instinct MI350X UBB PCIe リタイマー
管理用のSMCもあります。

AMD インスティンクト MI350 SMC
ボード自体以外にも、冷却機能もあります。
AMD Instinct MI350X 空冷
こちらは大型の空冷ヒートシンクを搭載したOAMモジュールです。この空冷式はAMD Instinct MI350Xです。

AMD Instinct MI350X クーラー
UBBには8つあります。これは上で見たものと似ていますが、大きなヒートシンクが8つあります。

AMD Instinct MI350X UBB 8 GPU
こちらは、SMC とハンドル側から見たヒートシンクの別のビューです。

AMD Instinct MI350X UBB 8 GPU ヒートシンク プロファイル
参考までに、AMD MI300X の UBB を以下に示します。

AMD MI300X 8 GPU OAM UBB 1
AMD には、より高い TDP とカードあたりのより高いパフォーマンスを可能にする MI355X 液冷バージョンもあります。
AMD MI350シリーズ AIサーバー
パートナーには、Supermicro (4U/2U 液体冷却、最大 355 台の MI7X)、Compal (4U、最大 355 台)、ASRock (XNUMXU、XNUMX 台の MIXNUMXX) などがあります。
MI350ラックの導入
シングルノードは最大2,304枚のカード(メモリ161GB、FP6/FP4で最大64PFlops)まで拡張可能です。空冷は128枚まで、水冷は128枚まで拡張可能です。36枚のカード構成では、2.57TBのメモリと最大6EFlopsのFP4/FPXNUMXを実現します。
結論:AMDの液体冷却革命
AMDのMI350シリーズとTensorWaveのクラスターは、AI液体冷却における重要な転換を象徴し、独占状態に挑戦し、効率性を向上させます。AIの需要が急増する中、これらのイノベーションはコスト削減と拡張性を約束します。
FiberMallは、最高レベルの光通信ソリューションでお客様のAIインフラをサポートいたします。ウェブサイトをご覧いただくか、カスタマーサポートまでお問い合わせください。お客様に合わせたアドバイスをご提供いたします。
関連製品:
-
OSFP-400GF-MPO1M 400G OSFP SR4 MPO-12 メスプラグピグテール 1m 浸漬液冷光トランシーバー $1950.00
-
OSFP-400GM-MPO1M 400G OSFP SR4 MPO-12 オスプラグ ピグテール 1m 浸漬液冷光トランシーバー $1950.00
-
OSFP-400GF-MPO3M 400G OSFP SR4 MPO-12 メスプラグピグテール 3m 浸漬液冷光トランシーバー $1970.00
-
OSFP-400GM-MPO3M 400G OSFP SR4 MPO-12 オスプラグ ピグテール 3m 浸漬液冷光トランシーバー $1970.00
-
OSFP-400GF-MPO60M 400G OSFP SR4 MPO-12 メスプラグピグテール 60m 浸漬液冷光トランシーバー $2025.00
-
OSFP-400GM-MPO60M 400G OSFP SR4 MPO-12 オスプラグ ピグテール 60m 浸漬液冷光トランシーバー $2025.00
-
OSFP-800G85F-MPO60M 800G OSFP SR8 MPO-12 メスプラグピグテール 60m 浸漬液冷光トランシーバー $2400.00
-
OSFP-800G85M-MPO60M 800G OSFP SR8 MPO-12 オスプラグピグテール 60m 浸漬液冷光トランシーバー $2400.00
-
OSFP-800G85F-MPO5M 800G OSFP SR8 MPO-12 メスプラグピグテール 5m 浸漬液冷光トランシーバー $2330.00
-
OSFP-800G85M-MPO5M 800G OSFP SR8 MPO-12 オスプラグピグテール 5m 浸漬液冷光トランシーバー $2330.00
-
OSFP-800G85F-MPO1M 800G OSFP SR8 MPO-12 メスプラグピグテール 1m 浸漬液冷光トランシーバー $2250.00
-
OSFP-800G85M-MPO1M 800G OSFP SR8 MPO-12 オスプラグピグテール 1m 浸漬液冷光トランシーバー $2250.00