GPU サーバーとユニバーサル サーバー

最近、GPU サーバー市場が活況を呈しており、ユニバーサル サーバーに GPU カードを搭載できるかどうか、あるいはマシンに必要なカードが 1 ~ 2 枚しかない場合、ユニバーサル サーバー + GPU カードを採用しても問題ないかどうか疑問に思うお客様もいらっしゃいます。GPU サーバーとユニバーサル サーバーは、ビジネス シナリオに基づくサーバー市場の現在の分類です。両者の間に厳密な区別はありません。GPU サーバーは、GPU をより適切にサポートするために最適化されたユニバーサル サーバーであると理解できます。両者を簡単に比較する必要がある場合、次の XNUMX の側面から説明できます。

1. 異なる数のGPUカードをサポートする

GPU サーバーは通常、少なくとも 4 枚の GPU カードをサポートします。市場で主流のカードには、4 枚、8 枚、10 枚、20 枚などがあります。ここでのカードは、標準のダブル幅カードを指します。以下は、参考までに GPU サーバーの背面図です。8 枚の GPU スロットは slot1 ~ slot8、10 枚の GPU スロットは slot0 ~ slot9 です。

GPUサーバーの背面図

GPUサーバーの背面図

ユニバーサル サーバー: 通常、2U サーバーには 4 枚以下のカードがあり、4U サーバーには 6 枚以下のカードがあり、これは標準の XNUMX 倍幅のカードを指します。

2. さまざまなタイプのGPUカードをサポート

GPU サーバー: カードの互換性が良好です。シングル幅とダブル幅に加えて、一部のメーカーのモデルでは、コンシューマー 2.5 または 3 幅のゲーム カードもサポートできます。たとえば、Stone Group が発売した G5208 は、革新的なマシンである 8 カード ファン バージョン 4090 をサポートしています。その GPU サポート パラメータと構造図は次のとおりです。

G5208構造図

G5208構造図

ユニバーサル サーバー: 主にシングル幅とダブル幅で、サイズと放熱の問題により、トリプル幅のコンシューマー カードをサポートできません。

3. 機械の形態は様々です。

GPU サーバー: 通常はシングルノード サーバーで、市場では 4U が最も一般的です。また、タワー タワー サーバー、および 5U、6U、または 8U 構成のハイエンド NVlink サーバーもあります。

ユニバーサル サーバー: 通常は 2U 形式ですが、高さ 1U、高密度 2U2、2U4、4U8、ブレードまたはキャビネット全体の形式もあり、より多様な製品形式があります。

4. GPUとCPUのトポロジが異なる

GPU サーバー: PCIE ダイレクト パススルーに加えて、PCIE sw を介して拡張することもできます。バランス、コモン、カスケードなど、さまざまなトポロジ タイプがあります。次の図に示すように、さまざまな顧客のビジネス シナリオ (トレーニング、推論、ビデオ レンダリングなど) に合わせて、より柔軟に選択できます。

3種類のトポロジの比較

3種類のトポロジの比較

ユニバーサル サーバー: 通常は PCIE パススルー (まれに PCIe sw 経由) であり、サポートされる GPU の数は制限されています。

5. サーバーのブランドの違い

GPU サーバー: 独自のプラットフォームを開発している大手メーカー (LC、H3C、CJB、LX など) を除き、他のほとんどは AMD プラットフォームを使用しています (もちろん、HQ、HS などの他の ODM メーカーも除外されません)。

ユニバーサル サーバー: 数十種類あります。自社開発に力を入れているトップ数社を除き、他のほとんどの企業はコスト効率を重視して組み立てられたサーバーを使用しています。

6. サーバー全体の消費電力は大きく異なる

GPU サーバー: 消費電力は比較的高いです。4090 4 カード サーバーを例にとると、サーバーには 8KW 以上が必要です。たとえば、市場で主流の Supermicro 2 カード プラットフォームでは、通常、2+2 3KW 電源が使用されています (もちろん、1+XNUMX 動作モードに設定することもできます)。

ユニバーサル サーバー: ローエンド サーバーは一般的に 500 ~ 550W ですが、800W、100W、1200W、1600W のサーバーもあります。通常、2KW を超えるサーバーは多くありません。

7. 単一サーバーの価格は異なる

GPU サーバー: プラットフォームはユニバーサル サーバーの 2 ~ 3 倍です。100,000 台の実際の出荷価格は 8 万元から数百万元の範囲です。これは主に GPU カードの価格によって決まります。たとえば、A100 カード XNUMX 枚の場合、プラットフォームのコストが占める割合はごくわずかです。

ユニバーサルサーバー:10,000万元から20,000万元、数十万元まで幅広い価格帯がありますが、販売価格のほとんどは100,000万元以下で、平均価格は30,000台あたり約50,000万元から4090万元です。これが、今誰もがGPUサーバーを好んで販売している理由です。XNUMX台のGPUサーバーの価格は他のサーバーのXNUMX倍であり、XNUMXのXNUMXカードマシンを数十台販売すれば、販売実績の課題は基本的に達成されます。

8. 全体的な市場シェアが異なる

20年前を振り返ると、GPUサーバーはサーバー市場全体の約25〜70%を占め、標準サーバーは30%以上を占めていました。現在、GPU市場は特にAIDCの構築により活況を呈しており、GPUモデルの出荷は40%または30%を超えたと概算されています。IDCの統計によると、国内のアクセラレーションサーバー市場シェアは2024年にXNUMX%を超えます。

9. サーバーのビジネスシナリオは異なる

GPU サーバーは一般に、ビデオ レンダリングやグラフィック処理、AI トレーニング、AI 推論、HPC コンピューティングに使用されますが、標準サーバーは、プライベート クラウド、分散ストレージ、管理ノード、HPC 汎用コンピューティング ノードなど、どこでも使用できます。

10. 液体冷却技術の要件の緊急性は異なる

GPUサーバーは「電力を大量に消費する」ため、インテリジェントコンピューティングセンターのPUE指数を下げる鍵となります。そのため、現在建設中または建設準備中の多くのインテリジェントコンピューティングセンターでは、GPUサーバーの液体冷却(コールドプレートと浸漬の両方)を計画しています。ただし、リスクはGPUカードの保証にあります。GPUカードが液体冷却に変換されると、元のメーカーの保証に影響する可能性があります(もちろん、この問題は一時的なものであり、GPUメーカーが将来特別な液体冷却モデルを発売する可能性も排除できません。実際、NVIDIAは100年前にAXNUMXシングル幅液体冷却GPUを発売しました)。ユニバーサルサーバーは、液体冷却の点でGPUサーバーほど緊急性がなく、構造が比較的単純で、液体冷却のコールドプレート変換や浸漬適応の点でGPUサーバーよりも成熟しています。

コメント

上へスクロール