人工知能と機械学習のダイナミックな進歩により、強力なコンピューティングハードウェアの需要が高まっています。 NVIDIA ブラックウェル B100 AI GPU はこの進化の最前線にあり、AI ワークロードに比類のないパフォーマンスを提供することを目的とした革新的な発明です。この詳細な記事では、NVIDIA Blackwell B100 の機能、アーキテクチャ、パフォーマンス メトリック、実際のアプリケーションなど、さまざまな側面について説明します。データ サイエンティスト、機械学習エンジニア、またはテクノロジーを愛する人にとって、このガイドは AI ニーズに B100 GPU を使用するために必要なすべての情報を提供します。この最先端のグラフィックス プロセッシング ユニットの謎を解き明かし、それが人工知能を永遠に変える方法を説明します。
Blackwell B100 とは何ですか? また、どのように AI を改善するのですか?
NVIDIA Blackwell アーキテクチャを理解する
NVIDIA Blackwell アーキテクチャは、AI および機械学習アプリケーション向け GPU 設計における大きな前進です。多数の CUDA コア、高度なテンソル コア、最適化されたメモリ帯域幅など、NVIDIA の最新の進歩を活用した多層処理を使用します。この組み合わせにより、並列処理能力が向上するだけでなく、計算効率も向上します。搭載された GPU 全体で低レイテンシと高スループットを保証するために、Blackwell B100 には、GPU 間通信を高速化する次世代 NVLink が搭載されています。さらに、ディープラーニング アクセラレータによりトレーニングと推論の時間が大幅に改善されるため、このアーキテクチャは高度なニューラル ネットワーク モデルに適しています。したがって、B100 は、これまでのどの前身よりも迅速かつ正確な結果を提供することで、AI パフォーマンスを大幅に向上させます。
B100と以前のGPUの比較
B100 を A100 や V100 などの前身の製品と比較すると、いくつかの重要な改善点が目立ちます。100 つ目は、B100 では cuda コアと tensor コアの数が増えたことです。これは、並列処理能力が向上し、ディープラーニング機能が向上したことを意味します。さらに、このアーキテクチャは、より高速なデータ転送速度と低レイテンシを可能にするより高いメモリ帯域幅の恩恵も受けています。GPU 間通信は、スケーラブルな AI ワークロードで重要な役割を果たす次世代 NVLink によってさらに強化されています。さらに、BXNUMX に組み込まれたディープラーニング アクセラレータは、複雑なモデルのトレーニング時間と推論時間を大幅に短縮します。これらの進歩を総合すると、比類のないパフォーマンスが得られるため、特に負荷の高い AI または機械学習タスクを処理する場合、以前の GPU 世代をアップグレードするための現実的な選択肢となります。
AIタスク向けB100の主な機能
B100 には、AI をより良くするための複数の新機能が搭載されています。その中で最も重要な機能の XNUMX つは、CUDA コアとテンソル コアの数が大幅に増加したことです。これにより、並列処理能力が大幅に向上します。このアーキテクチャにより、データの処理速度が大幅に向上し、複雑なニューラル ネットワークのトレーニングが高速化されます。また、超高速で低遅延の GPU 間通信を実現する次世代の NVLink テクノロジーも搭載されており、多数の GPU を搭載した大規模な AI モデルに適しています。
また、メモリ帯域幅も大幅に改善され、データの転送が高速化されてレイテンシが短縮され、AI や機械学習のタスクがこれまで以上に優れたパフォーマンスを発揮できるようになりました。また、B100 にはディープラーニング アクセラレータが搭載され、トレーニングと推論の時間が大幅に短縮され、アプリケーションを迅速に展開できるようになりました。これらのアクセラレータは、多くの計算能力を必要とする複雑なモデルを扱うときに役立ちます。
さらに、B100 にはさまざまな AI フレームワークと機械学習ライブラリの高度なソフトウェア サポートが搭載されており、既存のワークフローに問題なくシームレスに統合できます。この機能パッケージにより、現在のタスクを処理するのに十分なパワーが備わっているだけでなく、今日知られている人工知能と機械学習という、常に進化するこの分野における将来の需要にも対応できます。
NVIDIA Blackwell B100 はデータ センターにどのようなメリットをもたらしますか?
強化されたコンピューティング機能
データ センターは、コンピューティング能力を向上させる NVIDIA Blackwell B100 から大きな恩恵を受けています。並列処理に使用される CUDA コアとテンソル コアの数が増えるため、処理能力が大幅に向上します。これにより、情報処理速度が高速化され、人工知能の複雑なモデルのトレーニングに必要な時間が短縮されます。さらに、レイテンシが低い NVLink テクノロジの改良により、複数のデバイス間で同時に高速な GPU 間通信が可能になります。
また、B100 のメモリ帯域幅の拡張も重要です。これにより、データ転送が高速化され、AI 最適化と ML 操作に関連する遅延が軽減されます。さらに、新しいディープラーニング アクセラレータにより、トレーニング中の推論時間が短縮されるため、展開が高速化され、反復処理が短くなり、AI アプリケーションを実際に適用できるようになります。それに加えて、機械学習と AI で使用される一般的なフレームワークに対する現在のソフトウェア サポートと、包括的なパフォーマンス強化により、既存のワークフローに問題なく簡単に移行できます。これらすべての要素を組み合わせることで、任意のセンターを、マシンが独立して考えることができるイノベーションの原動力に変えることができるはずです。
データセンター向けGPUパフォーマンスの向上
NVIDIA Blackwell B100 は、AI や機械学習のタスクに優れた GPU パフォーマンスを必要とするデータ センターで動作するように設計されました。この目標を達成する方法の XNUMX つは、コンピューティング プロセス中の精度と速度の両方を向上させる最新の GPU アーキテクチャを使用することです。これにより、過去に記録されたものよりも高い結果が得られ、複雑な AI モデルとデータ分析が可能になります。
さらに、B100 はエネルギー効率に優れているため、施設は電力を節約しながら、冷却ソリューションなど、施設内の全体的な効率を高めることができます。特に、大規模なセンターで見られるような大規模な操作を扱う場合、システムに過負荷がかかって故障したり、完全に機能しなくなったりしないように、このバランスを維持する必要があります。
さらに、B100 がサポートする次世代インターコネクトは、低レイテンシと相まって情報の高速転送を実現します。これは、大規模なデータセットの管理を含むリアルタイム処理で重要であり、これにより、より要求の厳しいアプリケーションをさまざまなサービス レベルのデータ センターで効果的に処理できるようになります。簡単に言えば、NVIDIA Blackwell はデータ センターで新記録を樹立し、さまざまなコンピューティング分野で GPU パフォーマンス基準を大幅に強化し、サービス提供の改善を通じてイノベーションを推進します。
電力効率とGPUパフォーマンスの向上
NVIDIA Blackwell B100 の電力効率は大幅に改善され、GPU パフォーマンスも大幅に強化されました。B100 は最新のアーキテクチャ アップグレードを採用し、より低いエネルギー消費でより高いコンピューティング パワーを実現します。大手技術 Web サイトのレポートによると、このバランスは、リソース割り当てを最適化するマルチインスタンス GPU テクノロジや、熱管理を改善する次世代冷却システムなどの最新機能によって実現されています。さらに、AI ベースの電力管理システムが強化され、ワークロード要件に応じて動的に変更できるため、最大限の有効性と持続可能性が確保されます。この効率性と機能の組み合わせにより、現代のデータ センターに最適な選択肢となり、環境への悪影響を最小限に抑えながら、最もリソースを消費する人工知能アプリケーションもサポートできます。
B100 GPU は生成 AI アプリケーションでどのように優れているのでしょうか?
ジェネレーティブAIに特化した機能強化
数多くの重要な機能強化により、NVIDIA Blackwell B100 GPU は生成 AI アプリケーションに特に適しています。まず、このアーキテクチャには並列処理用に設計された高度なテンソル コアがあり、行列演算を高速化することで AI 計算を大幅に高速化します。次に、このアーキテクチャは生成モデルに必要な膨大なデータセットを処理できるより広いメモリ帯域幅をサポートしているため、トレーニング時間が短縮され、モデルの精度が向上します。さらに、NVIDIA 自体の CUDA や TensorRT などの強力なソフトウェア フレームワークが含まれており、開発や推論のワークフローが簡素化されます。これらの機能強化により、生成 AI タスクの作業中に大幅なパフォーマンス アップグレードと効率性の向上が実現し、開発者はこれまでよりも迅速にモデルを作成して展開できるようになります。
生成AIのパフォーマンスベンチマーク
生成 AI アプリケーションでは、NVIDIA Blackwell B100 GPU は記録破りのパフォーマンス ベンチマークを誇ります。最新の評価では、他のモデルを大幅に上回っていることが示されています。たとえば、テストでは、この世代は、同様の生成タスクを実行しながら、以前の Ampere ベースのバージョンよりも 40% 高速にテキストを処理したり、画像を作成したりすることがわかっています。これらの改善点には、更新されたテンソル コアの統合などがあり、これにより行列計算が最大 30 倍高速化されます。このような操作は、ニューラル ネットワーク内での効率的なトレーニングと推論に不可欠です。さらに、メモリ帯域幅の拡大により、大規模なデータセットの処理中に発生するボトルネックが大幅に緩和され、全体的なスループットが約 100% 向上します。これらの対策により、BXNUMX は AI が要求されるシステムで重いワークロードを処理できることが疑う余地なく証明されており、クリエイティブな人工知能研究プログラムで最高レベルのパフォーマンスを求める開発者はこれを採用する必要があります。
NVIDIA Blackwell B100 は H200 および B200 GPU と比べてどうですか?
アーキテクチャとパフォーマンスの違い
NVIDIA Blackwell B100、H200、B200 GPU は、さまざまな生成 AI タスクに対応するさまざまなアーキテクチャの進歩とパフォーマンス特性を備えています。
- NVIDIA Blackwell B100: B100 は、より多くのテンソル コアとより広いメモリ帯域幅を備えた新しい設計を採用しています。これらの変更により、マトリックス演算が高速化され、データ転送速度が向上し、トレーニングと推論の効率が向上します。また、最新のソフトウェア フレームワークと連携し、他のベンチマークを最大 40% 上回るパフォーマンスを発揮するため、AI ワークロードの処理速度が向上します。
- エヌビディア H200H200 は、高いコンピューティング能力を最適化しながら、省電力機能に最も重点を置いています。このような最適化は、b100 と比較して最高の生成 AI 生のパフォーマンスを提供しないかもしれませんが、一方で、高速性とエネルギー消費のバランスが取れているため、効率的なデータ センターに適用できます。このハードウェアには、最新のセキュリティ機能と人工知能専用に設計されたアクセラレータが統合されており、複数のアプリケーション領域で使いやすさが向上しています。
- NVIDIA B200: パフォーマンス能力の点では、これは両方の b100 の中間に位置し、h200 が提供するものよりも高い効率が期待できますが、生成 AI などの電力を大量に消費するタスクを処理する場合は、どちらにも劣ります。より優れたテンソル コアとメモリ処理の最適化を備えたアーキテクチャを備えているため、生の処理能力と運用効率の間の何かを求める開発者は、常にこれを選ぶことができます。
結論として、計算能力だけについて言えば、速度の面でも b100 を超えるものはありません。ただし、エネルギー利用の最適化だけについて言えば、h200 に勝るものはありません。しかし、これら XNUMX つの極端な点を考慮すると、いずれにせよ、AI に関連する分野内で汎用アプリケーションに役立つものを考え出すことになっているため、このようにすることが期待されています。各 GPU のアーキテクチャや機能セットは、その能力に応じて、生成 AI や高性能コンピューティングの特定のユース ケースに最適です。
実際のユースケースとパフォーマンスレビュー
NVIDIA B100
NVIDIA B100 は、大規模な AI トレーニングや推論を行うデータ センターで広く使用されています。市場で入手可能などの製品よりも処理速度が速いため、自然言語処理、複雑なシミュレーション、リアルタイム データ分析など、高いスループットを必要とするディープラーニング モデルに最適です。その一例が OpenAI です。OpenAI は B100 GPU を使用して大規模なトランスフォーマー ネットワークをトレーニングし、トレーニング時間を大幅に短縮しながらモデルの精度を向上させています。
エヌビディア H200
エネルギー使用量が純粋な計算能力よりも重要だが、大幅なパフォーマンス向上を犠牲にしたくない場合は、最適化された電力効率を考慮して設計されている H200 が選ばれます。このため、AI ベースのセキュリティ システムからフィンテック分析、さらには機械学習アルゴリズムを搭載したリアルタイムの推奨エンジンまで、複数の異なるタイプのワークロードが予想されるクラウド コンピューティング サービスでの使用に最適です。Google Cloud 自体も、運用コストとパフォーマンスのバランスをとるためだけでなく、インフラストラクチャ全体にわたって持続可能なソリューションを提供するために、これらのチップを戦略的に使用しています。
NVIDIA B200
研究機関や中規模企業は、バランスの取れたアーキテクチャにより、B200 を主力 GPU として選択することがよくあります。このアーキテクチャは、B100 などの他のモデルのように過度の電力を必要とせずに強力な人工知能機能を提供します。たとえば、複雑な生物システムのモデリングには効率的なテンソル コア (このカードにはそれが搭載されています) が必要な計算生物学の学術研究で効果的に使用できます。また、スタートアップ企業は、音声認識ソフトウェアや AI 駆動の予知保全システムなどを開発する際にこのカードが役立つと感じるかもしれません。この場合は、過剰なエネルギーを消費することなく、スケーラビリティのニーズが効率的に満たされます。
結論として、これらの GPU はそれぞれ、金融や医療分野で見られるような高性能 AI タスクに取り組む際に業界をリードすること (B100)、セキュリティ サービスから e コマース プラットフォームに至るまでのさまざまな分野でエネルギー意識と汎用性の間の妥協点を見つけること (H200)、または研究環境や製造などの分野に従事する中小企業内のより汎用的なニーズに応えること (B200) など、実際の特定の使用事例を念頭に置いて設計されています。
B100 の主なハードウェアと仕様は何ですか?
コンピューティングと TDP の詳細
NVIDIA B100 GPU は、比類のない計算能力を約束します。これを可能にするのは、640 個の Tensor コアと 20 個のストリーミング マルチプロセッサ (SM) です。これらを組み合わせると、FP32 計算で 320 テラフロップス、Tensor 演算で XNUMX テラフロップスのピーク パフォーマンスを達成できます。このアーキテクチャにより、大規模な並列処理が可能になり、ディープラーニングや複雑なシミュレーションに大きなメリットをもたらします。
B100 の TDP (熱設計電力) 定格は 400 ワットです。すべてを安全に実行し続けるためには、冷却システムは少なくともその量の熱を放散できなければなりません。このような大きな TDP では、このグラフィック カードで熱スロットリングは発生しません。そのため、過熱することなく同時に多くの計算を実行する必要があるデータ センターやその他の高度な研究施設での高負荷の作業負荷をサポートできます。
メモリ帯域幅と HBM3e の理解
GPU のパフォーマンスは、ディープラーニングや科学シミュレーションなどのデータ量の多いタスクのため、主にメモリ帯域幅に依存します。NVIDIA B100 は、従来の GDDR (Graphics Double Data Rate) メモリよりも優れたメモリ帯域幅を持つ HBM3e (High Bandwidth Memory 3e) で構築されています。HBM3e は最大 3.2 テラバイト/秒 (TBps) の帯域幅を処理できるため、GPU とメモリ間のデータ転送時の遅延が短縮されます。したがって、この機能により、大規模なデータセットにすばやくアクセスできるだけでなく、複雑な計算を処理する際の処理能力も向上します。
さらに、HBM3e の設計は、システム ユニット内の放熱効率を改善しながら電力を節約するのにも役立ちます。つまり、複数のメモリ ダイを垂直に積み重ね、GPU チップ自体の近くにあるインターポーザーでそれらを密接に接続することで、HBM3e によって導入されたこのアーキテクチャの進歩により、データが移動する物理的な距離が大幅に短縮されます。さらに、これにより全体的なエネルギー効率が向上するだけでなく、周囲の計算環境からの計算要求も高い高負荷のワークロード下でも、B100 カードのパフォーマンスのスケーラビリティが向上します。
パフォーマンス向上におけるNVLinkの役割
NVIDIA の NVLink は、GPU とシステムの他の部分との間のデータ転送速度を大幅に向上させる高速相互接続テクノロジです。NVLink は従来の Peripheral Component Interconnect Express (PCIe) 接続よりも高い帯域幅を提供し、大量のデータを扱う際の通信を高速化し、ボトルネックを解消します。NVLink により、B100 GPU は最大 900 Gbps の総合帯域幅を実現し、GPU 間のスムーズな通信が可能になります。
この機能は、ディープラーニング、人工知能 (AI)、ハイパフォーマンスコンピューティング (HPC) 環境によく見られるマルチ GPU セットアップで特に役立ちます。NVLink が提供する効率的な複数 GPU 接続により、大規模なデータセットを GPU に分散して一度に処理できるようになり、計算スループットが大幅に向上します。さらに、NVLink はリンクされた GPU 上のコヒーレント メモリをサポートしているため、情報へのアクセスと共有が容易になり、パフォーマンスとスケーラビリティが向上します。
まとめると、NVLink の低レイテンシと広い帯域幅の組み合わせは、B100 のパフォーマンス レベルの向上に大きく貢献し、強力な相互接続ソリューションを必要とする高負荷の計算タスクに最適なデバイスとなっています。
NVIDIA B100 のアプリケーションと潜在的な使用例は何ですか?
AIトレーニングと推論
NVIDIA B100 の高度なアーキテクチャと高い計算能力は、AI トレーニングおよび推論アプリケーションに最適です。人工知能トレーニングでは、その膨大な並列処理能力により、膨大なデータセットと複雑なモデルを効率的に処理できます。この混合精度コンピューティングのサポートとテンソル コアにより、モデルの収束に必要な時間が短縮され、トレーニングが大幅に高速化されます。
AI 推論に関しては、このデバイスは、トレーニング済みモデルをリアルタイム アプリケーションに展開するために必要な高速処理速度を誇ります。これは、自然言語処理、画像認識、音声認識など、迅速かつ正確な推論が重要な役割を果たす分野で特に役立ちます。B100 の最適化されたパフォーマンスにより、AI システムからの予測や出力は高品質になり、レイテンシは最小限に抑えられます。
一般的に言えば、NVIDIA B100 は推論と組み合わせた人工知能トレーニングにとって貴重なソリューションであり、さまざまな分野での高度な AI プログラムの作成と実装を促進します。
データセンターとHPCでの活用
データ センターや高性能コンピューティング (HPC) 環境は、その高い計算能力と効率性により、NVIDIA B100 なしでは成り立ちません。B100 はデータ センターで複数の同時プロセスを実行できるため、スループットが大幅に向上し、運用上のボトルネックも削減されます。B100 のこの堅牢なアーキテクチャは、ビッグ データ分析から機械学習まで、データ センターのさまざまなワークロードをサポートし、サービス提供のスケーラビリティと信頼性を確保します。
HPC アプリケーションにおける B100 の優れたパフォーマンスにより、複雑なシミュレーションや、科学研究、金融モデリング、気候シミュレーションなどに使用される大規模な計算が高速化されます。高度な処理能力と高いメモリ帯域幅によりタスクを高速に実行できるため、時間制限のある計算には重要です。
さらに、この GPU には NVLink が統合されているため、異なる GPU 間のスムーズな相互接続が可能になり、GPU 間での効率的な情報共有と、システム全体のパフォーマンスの最適化を同時に実現できます。したがって、最新のデータ センターや、そのような目標に重点を置いたその他のタイプの施設内での計算効率とパワーの最大化に関しては、NVIDIA B100 に勝るものはありません。
LLMおよびその他のAIモデルの強化
NVIDIA B100 は、トレーニングおよび展開中に大規模言語モデル (LLM) やその他の AI モデルを大幅に改善します。最先端の設計により、高度な AI モデルを作成するための複雑でリソースを大量に消費するプロセスを管理するために必要な、比類のない計算能力が提供されます。
1 つの特徴は、より大規模で複雑なモデルをサポートし、研究者や開発者が AI で達成できるものの限界を押し広げることができることです。これは、GPU の高メモリ帯域幅と、ディープラーニング タスクの実行を加速する高効率のテンソル コアの組み込みによって可能になり、トレーニングの高速化とモデルのパフォーマンス向上につながります。
さらに、B100 の NVLink テクノロジーはマルチ GPU のスケーラビリティを強化し、膨大なデータセットを並列処理する際のデータ転送のボトルネックを解消します。この機能は、大規模な計算能力を必要とするその他の人工知能アプリケーションの中でも、広範囲の言語表現システムのトレーニングに不可欠です。
NVIDIA B100 はこれらの改善を活用して AI の進歩を加速し、自然言語処理、機械学習アルゴリズム、その他の AI 駆動型テクノロジにおけるマイルストーンを実現します。
参照ソース
よくある質問(FAQ)
Q: NVIDIA Blackwell B100 AI GPU とは何ですか?
A: NVIDIA Blackwell B100 AI GPU は、人工知能 (AI) アプリケーションと高性能コンピューティング (HPC) 専用に製造された NVIDIA のグラフィック プロセッシング ユニットの後継製品です。2024 年に発売される予定で、前世代製品よりもはるかに高いパフォーマンスを発揮すると期待されています。
Q: Blackwell B100 AI GPU はどのようなアーキテクチャを使用していますか?
A: AI および HPC ワークロードの効率とパフォーマンスを向上させるために、Blackwell B100 AI GPU は、「Hopper」として知られる前身に代わる「Blackwell」と呼ばれる新しいアーキテクチャを導入しています。
Q: Nvidia Blackwell B100 と Hopper を比較するとどうなりますか?
A: Hopper アーキテクチャと比較すると、Nvidia Blackwell B100 は、より優れたテンソル コア テクノロジー、トランジスタ効率、相互接続速度などの大幅な改善を誇り、AI 機能と推論パフォーマンスが向上します。
Q: Blackwell B100 AI GPU のリリース予定日はいつですか?
A: NVIDIA は、高性能 GPU の次期ラインナップとして、100 年に Blackwell B2024 AI GPU を導入する予定です。
Q: Blackwell B100 AI GPU は AI モデルのトレーニングと推論をどのように改善しますか?
A: 人工知能モデルのトレーニングや推論の実行に関しては、このカードにはより強力なテンソル コアが搭載されていること、また、両方の領域で大きな改善を提供する High Bandwidth Memory Three Extreme (HBM3E) による電力効率の高い設計があることは特筆に値します。
Q: NVIDIA HGX プラットフォームとは何ですか? また、Blackwell B100 とはどのように関連していますか?
A: NVIDIA の HGX システムは、AI および HPC システムの設計テンプレートです。たとえば、統合システムは、要求の厳しいワークロードを対象とする HGX B100 リファレンス デザインに搭載されている Blackwell B100 AI GPU を中心に構築されています。
Q: NVIDIA Blackwell B100 AI GPU は、消費電力の面でどのように優れていますか?
A: Blackwell B100 AI GPU は、トランジスタの効率向上と冷却技術の向上により、前世代の GPU よりもワットあたりのパフォーマンスが向上すると予想されており、このデバイスは人工知能や高性能コンピューティングに関連するタスクに非常に役立ちます。
Q: NVIDIA の CEO である Jensen Huang は、Blackwell B100 AI GPU の開発においてどのような役割を果たしていますか?
A: Nvidia の CEO である Jensen Huang 氏は、BlackwellB-100-AI GPU などの新製品の開発に関連するものを含め、同社の創造的な戦略を推進してきました。彼のアイデアとリーダーシップ能力は、人工知能 (AI) と高性能コンピューティング (HPC) に関連する分野における Nvidia Corporation の進歩を形作り続けています。
Q: Blackwell B100 AI GPU は他の NVIDIA 製品と組み合わせて使用できますか?
A: はい。実際、Grace CPU を搭載した DGX SuperPOD、RTX GPU、または人工知能や高性能コンピューティング (HPC) を含むさまざまな種類のアプリケーションに包括的なソリューションを提供する H200 などの他の Nvidia デバイスと連携できます。
関連製品:
- OSFP-XD-1.6T-4FR2 1.6T OSFP-XD 4xFR2 PAM4 1291/1311nm 2km SN SMF 光トランシーバ モジュール $17000.00
- OSFP-XD-1.6T-2FR4 1.6T OSFP-XD 2xFR4 PAM4 2x CWDM4 TBD デュアルデュプレックス LC SMF 光トランシーバ モジュール $22400.00
- OSFP-XD-1.6T-DR8 1.6T OSFP-XD DR8 PAM4 1311nm 2km MPO-16 SMF 光トランシーバー モジュール $12600.00
- NVIDIA MMS4X50-NM 互換 OSFP 2x400G FR4 PAM4 1310nm 2km DOM デュアルデュプレックス LC SMF 光トランシーバー モジュール $1350.00
- NVIDIA MMS4X00-NM-FLT 互換 800G ツインポート OSFP 2x400G フラットトップ PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1200.00
- NVIDIA MMA4Z00-NS-FLT 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $850.00
- NVIDIA MMS4X00-NM 互換 800Gb/s ツインポート OSFP 2x400G PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1100.00
- NVIDIA MMA4Z00-NS 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $750.00
- NVIDIA MMS1Z00-NS400 互換 400G NDR QSFP112 DR4 PAM4 1310nm 500m MPO-12 FEC 光トランシーバー モジュール付き $800.00
- NVIDIA MMS4X00-NS400 互換 400G OSFP DR4 フラットトップ PAM4 1310nm MTP/MPO-12 500m SMF FEC 光トランシーバー モジュール $800.00
- NVIDIA MMA1Z00-NS400 互換 400G QSFP112 SR4 PAM4 850nm 100m MTP/MPO-12 OM3 FEC 光トランシーバー モジュール $650.00
- NVIDIA MMA4Z00-NS400 互換 400G OSFP SR4 フラットトップ PAM4 850nm OM30 で 3m/OM50 で 4m MTP/MPO-12 マルチモード FEC 光トランシーバ モジュール $650.00