5 年後、世界的に有名な AI コンピューティング テクノロジ イベントである年次 NVIDIA GTC カンファレンスは、対面形式に大幅に戻りました。本日、NVIDIA の創設者兼 CEO であるジェンスン ファンは、最新の画期的な AI チップである Blackwell GPU を発表する 2 時間の基調講演を行いました。
このカンファレンス中、NVIDIA はトップの AI 専門家と業界リーダーを一堂に集め、業界に大きな影響力を持っていることを示しました。このイベントには、1 万人を超える参加者が集まり、前例のないほどの参加者が集まりました。
現地時間 18 月 1 日午後 00 時 (北京時間 4 月 00 日午前 19 時)、GTC で最も期待されていた基調講演が正式に始まりました。AI をテーマにした短編映画に続いて、ジェンスン フアン氏が象徴的な黒い革のジャケットを着てメイン ステージに登場し、観客と交流しました。
同氏はまず、コンピューティングの高速化における NVIDIA の 30 年にわたる歩みを振り返り、革新的な CUDA コンピューティング モデルの開発、初の AI スーパーコンピューター DGX の OpenAI への提供、そして当然のことながら生成 AI への焦点の移行などのマイルストーンを強調しました。
主要な EDA 企業との重要なパートナーシップを発表した後、同氏はトレーニングの計算能力需要の急増を促進する AI モデルの急速な進化について議論し、より大型の GPU の必要性を強調しました。同氏は「アクセラレーテッド・コンピューティングは臨界点に達し、汎用コンピューティングはその勢いを失った」と述べ、さまざまな業界におけるアクセラレーテッド・コンピューティングの大幅な進歩を強調した。その後、GPU やスーパー チップからスーパーコンピューターやクラスター システムに至るまでの一連の主要コンポーネントが大画面で急速に点滅し、ジェンセン フアン氏が重大な発表を行いました。まったく新しい主力 AI チップである Blackwell GPU が登場しました。
GPU 分野におけるこの最新のイノベーションは、構成とパフォーマンスの両方において、前世代の Hopper GPU を上回っています。 Jensen Huang は Blackwell GPU と Hopper GPU を比較し、Blackwell のサイズが大幅に大きいことを紹介しました。この比較の後、彼はユーモアたっぷりにホッパーを安心させた。「大丈夫だよ、ホッパー。とてもいい子だよ、いい子だよ。いい娘。"ブラックウェルのパフォーマンスは本当に素晴らしいです! FP8 であっても、新しい FP6 および FP4 であっても、精度、対応可能なモデル スケールおよび HBM 帯域幅はすべて、前世代の Hopper を上回っています。
Pascal アーキテクチャから Blackwell アーキテクチャに移行するまでの 8 年間で、NVIDIA は AI コンピューティングのパフォーマンスを 1000 倍に向上させました。
Jensen Huang の真の野心は、兆パラメータ レベルの GPU 計算を最適化できる最も強力な AI インフラストラクチャを作成することにあるため、これはほんの始まりにすぎません。全体として、NVIDIA は今年の GTC カンファレンスで 6 つの主要な発表を発表しました。
- Blackwell GPU の導入: 以前の FP2.5 と比較して、トレーニング パフォーマンスが 4 倍、FP5 の精度推論パフォーマンスが 8 倍強化されました。相互接続速度が Hopper の速度の 576 倍にアップグレードされた第 XNUMX 世代 NVLink。最大 XNUMX 個の GPU まで拡張可能で、数兆パラメータの混合専門家モデルの通信ボトルネックに対処します。
- Blackwell アーキテクチャの導入: 兆パラメータ レベルの GPU 計算用に最適化。最大スループットを備えた新しい X800 シリーズ ネットワーク スイッチを発売 800Gb / s; GB200スーパーチップ、GB200 NVL72システム、DGX B200システム、次世代AIスーパーコンピューターDGX SuperPODを導入しました。
- 数十のエンタープライズ生成 AI マイクロサービスのリリース。GPU を使用してカスタム AI モデルを簡単に展開するためのソフトウェアをパッケージ化して配信する新しい方法を提供します。
- TSMC と Synopsys による画期的なリソグラフィ計算プラットフォーム cuLitho の発表: cuLitho は、強化された生成 AI アルゴリズムを使用してリソグラフィ計算を 40 ~ 60 倍高速化し、2nm 以降のより高度なプロセスの開発に大幅なサポートを提供します。
- 人型ロボットのベースモデル「プロジェクトGR00T」と新型人型ロボットコンピュータ「Jetson Thor」を発売。 Isaac ロボット プラットフォームの大幅なアップグレードにより、身体化されたインテリジェンスの進歩が推進されました。ジェンセン フアン氏は、ディズニー リサーチ社の XNUMX 台の小型 NVIDIA ロボットとも対話しました。
- Apple との協力により、Omniverse プラットフォームを Apple Vision Pro に統合し、産業用デジタル ツイン ソフトウェア ツール用の Omniverse Cloud API を提供します。
新しい AI チップの登場: 20.8 億個のトランジスタ、2.5 倍のトレーニング パフォーマンス、5 倍の推論パフォーマンス
生成 AI の新時代に入り、AI コンピューティング需要の爆発的な増加により、Blackwell GPU が台頭し、前任者の Hopper GPU を超えて AI 競争の焦点となっています。 NVIDIA GPU アーキテクチャの各世代には科学者の名前が付けられており、新しいアーキテクチャである Blackwell は、アフリカ系アメリカ人初の全米科学アカデミー会員であり、著名な統計学者および数学者である David Blackwell に敬意を表しています。ブラックウェルは複雑な問題を単純化することで知られており、「動的計画法」や「更新定理」などの彼の独立した発明は、さまざまな科学および工学分野に幅広く応用されています。
Huang 氏は、生成 AI がこの時代を特徴づけるテクノロジーであり、Blackwell がこの新たな産業革命を推進するエンジンであると述べました。 Blackwell GPU は 6 つのコア テクノロジーを誇ります。
- 「世界で最も強力なチップ」と呼ばれる: カスタム TSMC 20.8NP プロセスを使用して 4 億個のトランジスタを統合し、ユニファイド メモリ アーキテクチャ + デュアルコア構成を備えた「チップレット」設計のコンセプトに従い、リソグラフィ テンプレートによって制限された 10 つの GPU ダイを 192TB/s のチップ間 NVHyperfuse インターフェイスを介して接続して形成します。 3GB HBM8e メモリ、20TB/s メモリ帯域幅、および最大 XNUMXPFLOPS のシングルカード AI トレーニング能力を備えた統合 GPU。
前世代の Hopper と比較して、Blackwell の 12.8 つのダイの統合により、Hopper GPU に比べて 100 億個のトランジスタが追加され、サイズが大きくなりました。対照的に、以前の H80 は 3 GB HBM3.35 メモリと 200 TB/秒の帯域幅しか備えていませんでしたが、H141 は 3 GB の HBM4.8e メモリと XNUMX TB/秒の帯域幅を備えていました。
- 第二世代変圧器エンジン: 新しいマイクロテンソル スケーリング サポートと高度なダイナミック レンジ管理アルゴリズムを TensorRT-LLM および NeMo Megatron フレームワークと組み合わせて、Blackwell に FP4 精度の AI 推論機能を装備し、専門家混合モデルの高精度を維持しながら二重の計算とモデル スケールをサポートします。
新しい FP4 精度の下では、Blackwell GPU の AI パフォーマンスは Hopper の XNUMX 倍に達します。 NVIDIA は CUDA コアのパフォーマンスを明らかにしていません。アーキテクチャの詳細はまだ明らかにされていません。
- 第 5 世代 NVLink: 兆パラメータおよび混合エキスパート モデルのパフォーマンスを高速化するために、新しい NVLink 各 GPU に 1.8TB/秒の双方向帯域幅を提供し、複雑で大規模な言語モデルに適した最大 576 個の GPU 間のシームレスな高速通信をサポートします。
単一の NVLink スイッチ チップは、TSMC 50NP プロセスを使用する 4 億個のトランジスタで構成され、1.8 つの NVLink を XNUMXTB/秒で接続します。
- RASエンジン: Blackwell GPU には、信頼性、可用性、保守性を確保する専用エンジンが組み込まれていると同時に、AI ベースの予知メンテナンスを利用して信頼性の問題を診断および予測するチップレベルの機能を組み込んで、システムの稼働時間を最大化し、数週間にわたって継続的に実行される大規模な AI 導入の拡張性を強化します。数ヶ月間も中断することなく稼働できるため、運用コストが削減されます。
- セキュアAI: 高度な機密コンピューティング機能は、新しいローカル インターフェイス暗号化プロトコルをサポートし、パフォーマンスを損なうことなく AI モデルと顧客データを保護します。
- 減圧エンジン: 最新の形式をサポートしてデータベース クエリを高速化し、データ分析やデータ サイエンス タスクに最高のパフォーマンスを提供します。 AWS、Dell、Google、Meta、Microsoft、OpenAI、Oracle、Tesla、xAI はすべて Blackwell 製品を採用する予定です。 Tesla と xAI の CEO である Musk 氏は、「現時点で AI の分野において、NVIDIA ハードウェアより優れたものはありません。」と率直に述べました。
過去のリリースでシングルチップのパフォーマンスを重視したのとは著しく異なり、Blackwell シリーズは、GPU コード名の区別が曖昧で、システム全体のパフォーマンスに重点を置いており、ほとんどがまとめて「Blackwell GPU」と呼ばれています。このリリース前の市場の噂によると、B100 の価格は約 30,000 ドル、B200 は約 35,000 ドルになる可能性があります。この価格設定戦略を考慮すると、前世代と比較して価格の上昇は 50% 未満ですが、トレーニングのパフォーマンスは 2.5 倍向上し、費用対効果が大幅に向上しました。このように価格がわずかに上昇しても、トレーニングのパフォーマンスが大幅に向上し、価格が比較的安定している場合。 Blackwell シリーズ GPU の市場競争力は恐るべきものとなるでしょう。
兆パラメータレベルのGPUコンピューティングに最適化された新しいネットワークスイッチとAIスーパーコンピュータの紹介
Blackwell プラットフォームには、基本的な HGX B100 に加えて、NVLink スイッチ、GB200 スーパーチップ コンピューティング ノード、および X800 シリーズ ネットワーク スイッチが含まれています。
このうちX800シリーズは、兆パラメータレベルのAI生成タスクをサポートすることを目的とした、大規模なAI運用に特化した新設計のネットワークスイッチです。 NVIDIA の Quantum-X800 InfiniBand ネットワークと Spectrum-X800 Ethernet は、最大 800Gb/s のスループット能力を備えた世界初のエンドツーエンド プラットフォームの 5 つであり、前世代の製品と比較して交換帯域幅容量が 9 倍増加しています。ネットワークの計算能力は、NVIDIA の第 14.4 世代 SHARP テクノロジによって XNUMX 倍に強化され、XNUMXTFLOPS のネットワーク計算パフォーマンスを実現しました。早期導入企業には、Microsoft Azure、Oracle Cloud Infrastructure、Coreweave などが含まれます。
Spectrum-X800 プラットフォームは、マルチテナント向けに特別に設計されており、各テナントの AI ワークロードのパフォーマンス分離を可能にし、生成 AI クラウド サービスと大規模エンタープライズ ユーザーのネットワーク パフォーマンスを最適化します。NVIDIA は、ネットワーク アクセラレーション通信ライブラリ、ソフトウェア開発キット、管理ソフトウェアを含む包括的なソフトウェア ソリューションを提供しています。GB200 Grace Blackwell スーパーチップは、兆パラメータ規模の生成 AI タスク用のプロセッサとして設計されています。このチップは、900GB/s の第 2 世代 NVLink-CXNUMXC 相互接続テクノロジを使用して、XNUMX つの Blackwell GPU を XNUMX つの NVIDIA Grace CPU に接続します。ただし、NVIDIA は Blackwell GPU の正確なモデルを指定していません。
Huang 氏は GB200 スーパーチップを紹介し、コンパクトなスペースでこのような高い計算密度に対応できる初めてのものであることを強調し、相互接続されたメモリと「幸せな家族」に似た協調的なアプリケーション開発を強調しました。
各 GB200 スーパーチップ コンピューティング ノードは、200 つの GB14.4 スーパーチップを収容できます。 XNUMX つの NVLink スイッチ ノードで XNUMX つの NVLink スイッチをサポートでき、合計帯域幅 XNUMXTB/秒を実現します。
Blackwell コンピューティング ノードは 80 つの Grace CPU と XNUMX つの Blackwell GPU で構成され、XNUMXPFLOPS の AI パフォーマンスを実現します。
Huang 氏は、GPU とネットワーク機能が強化され、マルチノード アーキテクチャ、液冷、ラックレベル システムを備えた新しいコンピューティング ユニット、NVIDIA GB200 NVL72 の発売を発表しました。
GB200 NVL72 は「巨大 GPU」のように機能し、シングルカード GPU と同様に動作しますが、AI トレーニング パフォーマンスは 720PFLOPS に達し、AI 推論パフォーマンスはピークで 1.44EFLOPS に達します。 30TB の高速メモリを誇り、最大 27 兆のパラメータを持つ大規模な言語モデルを処理でき、最新の DGX SuperPOD の主要コンポーネントとして機能します。
GB200 NVL72 は、第 36 世代 NVLink テクノロジーを介して相互接続され、BlueField-200 DPU を含む 72 * GB200 スーパーチップ (36 * B3 GPU と XNUMX * Grace CPU で構成される) で構成できます。
Jensen Huang 氏は、現在世界中で利用できる EFLOPS レベルのマシンはわずかであると述べました。このマシンは、重さ 600,000 ポンドの 3000 個の部品で構成されており、「単一ラック内の EFLOPS AI システム」を表しています。同氏は、以前に H1.8 で GPT-MoE-100T モデルをトレーニングするには 90 日を要し、約 8000 個の GPU が 15MW の電力を消費する必要があったと共有しました。一方、GB200 NVL72 を使用する場合、必要なのは 2000 個の GPU と 4MW の電力だけです。
兆パラメータのモデルを実行する場合、GB200 は多次元の最適化を経て、個々の GPU トークンのスループット レートが H30 FP200 精度の最大 8 倍になりました。
大規模な言語モデル推論タスクに関して、GB200 NVL72 は、同数の H30 と比較して 100 倍のパフォーマンス向上を実現し、コストと消費電力は前世代の 1/25 です。
AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure などの主要なクラウド プロバイダーは、GB200 NVL72 へのアクセスをサポートしています。さらに、NVIDIA は、AI モデルのトレーニング、微調整、推論タスク用の統合 AI スーパーコンピューティング プラットフォームである DGX B200 システムを導入しました。 DGX B200 システムは、空冷を備えた伝統的なラックマウント設計を特徴とする DGX シリーズの第 200 世代に相当します。 144 基の B4 GPU と 1.4 基の第 64 世代 Intel Xeon プロセッサーが搭載されており、FP7 精度で 3PFLOPS の AI パフォーマンスを実現するとともに、大規模な XNUMXTB GPU メモリ容量と XNUMXTB/s のメモリ帯域幅により、兆パラメータ モデルのリアルタイム推論速度を最大 XNUMX 倍実現します。前任者よりも高速です。このシステムには、XNUMX つの ConnectX-XNUMX NIC と XNUMX つの BlueField-XNUMX DPU を備えた高度なネットワーキングが組み込まれており、各接続に最大帯域幅を提供します。 400Gb / s Quantum-2 InfiniBand および Spectrum-X Ethernet プラットフォームを通じて、より高い AI パフォーマンスを促進します。NVIDIA はまた、大規模な生成 AI トレーニングおよび推論ワークロードの継続的な運用を保証する、兆パラメータ モデルを処理できる DGX GB200 システムを利用した、次世代データ センター グレードの AI スーパーコンピューターである DGX SuperPOD を発表しました。200 台以上の DGX GB11.5 システムから構成されるこの新世代の DGX SuperPOD は、効率的な液体冷却ラックレベル拡張アーキテクチャを備えており、FP4 精度で 240EFLOPS の AI 計算能力と、ラックレベルの機能強化によってさらに拡張できる 200TB の高速メモリ ストレージを提供します。各 DGX GB200 システムには、100 個の GB200 スーパーチップが搭載されています。大規模な言語モデル推論タスクを実行する HXNUMX ユニットと比較すると、GBXNUMX スーパーチップは最大 XNUMX 倍のパフォーマンス向上を実現します。
Huang 氏は、データセンターを将来の「AI 工場」として構想し、業界全体が Blackwell の進歩に向けて準備を進めています。
コパイロットのカスタマイズと展開のための数十のエンタープライズレベルの生成 AI マイクロサービスの開始
NVIDIA は、数十のエンタープライズ レベルの生成 AI マイクロサービスを導入することで、CUDA と生成 AI エコシステムに基づいて構築された利点を拡大し続けています。これらのサービスを使用すると、開発者は、NVIDIA CUDA GPU インストール上で生成 AI コパイロットを作成および展開できます。
Huang 氏は、生成 AI がアプリケーションのプログラミング方法を変革し、ソフトウェアの作成から AI モデルの組み立て、タスクの指定、作業成果物の例の提供、計画のレビュー、中間結果の提供へと移行していると述べました。 NVIDIA NIM は、NVIDIA のアクセラレーテッド コンピューティング ライブラリと生成 AI モデルから構築された、NVIDIA の推論マイクロサービスのリファレンスとして機能します。これらのマイクロサービスは業界標準の API をサポートし、NVIDIA の大規模 CUDA インストール上で動作し、新しい GPU 向けに最適化されています。
企業はこれらのマイクロサービスを利用して、自社のプラットフォーム上にカスタム アプリケーションを作成し、展開しながら、知的財産に対する完全な所有権と制御を維持できます。NIM マイクロサービスは、NVIDIA の推論ソフトウェアでサポートされている、事前に構築された本番環境 AI コンテナーを提供するため、開発者は展開時間を数週間から数分に短縮できます。NIM マイクロサービスは、NVIDIA、AI21、Adept、Cohere、Getty Images、Shutterstock のモデルのほか、Google、Hugging Face、Meta、Microsoft、Mistral AI、Stability AI のオープン モデルを展開できます。
ユーザーは、Deepset、LangChain、LlamaIndex などの一般的な AI フレームワークと統合された、Amazon SageMaker、Google Kubernetes Engine、Microsoft Azure AI の NIM マイクロサービスにアクセスできるようになります。 AI アプリケーションを高速化するために、企業は、カスタム音声および翻訳 AI 用の NVIDIA Riva、経路最適化用の NVIDIA cuOpt、高解像度の気候および気象シミュレーション用の NVIDIA Earth-2 などの CUDA-X マイクロサービスを活用できます。カスタム モデル開発用の一連の NVIDIA NeMo マイクロサービスが間もなくリリースされる予定です。
開発者は、ai.nvidia.com で NVIDIA マイクロサービスを自由に試用できます。企業は、NVIDIA の AI Enterprise 5.0 プラットフォームを使用して、本番グレードの NIM マイクロサービスを展開できます。
生成 AI アルゴリズムの進歩: 半導体業界のトッププレーヤーと協力してフォトリソグラフィー コンピューティングに新たな革命を起こす
昨年の GTC カンファレンスで、NVIDIA は、半導体製造業界を対象とした 40 年間の極秘研究の末、画期的な開発を発表しました。革新的なフォトリソグラフィー コンピューティング ライブラリ cuLitho を活用して、フォトリソグラフィーの計算を 60 ~ 2 倍高速化し、XNUMXnm 以上の生産の物理的限界を超えました。先進的なチップ。このプロジェクトの協力者は、世界的な AI チップ大手の NVIDIA、半導体ファウンドリの大手 TSMC、EDA 大手の Synopsys といった半導体業界の主要企業です。
コンピューター リソグラフィーはチップ製造の基礎です。現在、cuLitho の高速プロセスを基盤として、生成 AI アルゴリズムによってワークフローの速度がさらに 2 倍になりました。具体的には、ウェーハ製造プロセスの多くの変更には光近接効果補正 (OPC) が必要であり、計算の複雑さが増大し、開発のボトルネックを引き起こしています。 cuLitho のアクセラレーテッド コンピューティングと生成 AI は、これらの問題を軽減できます。生成 AI を適用すると、従来の物理的に厳密な方法で最終マスクを導出する前に、光回折問題に対処するほぼ完璧なマスク ソリューションやアプローチを作成できるため、OPC プロセス全体が 350 倍高速化されます。チップ製造プロセスにおいて、コンピューター リソグラフィーは、CPU に年間数十億時間を費やす最も集中的なワークロードです。 CPU ベースの方法と比較して、cuLitho の GPU 高速化フォトリソグラフィー計算は、チップ製造プロセスを大幅に強化します。計算を高速化することで、100 台の NVIDIA H40,000 システムが 45 台の CPU システムを置き換えることができ、スループット レートが大幅に向上し、コスト、スペース要件、消費電力を削減しながら生産速度を向上させることができます。 「私たちは TSMC に NVIDIA cuLitho を導入しています」と TSMC 社長の Wei Zhejia 氏は述べ、GPU アクセラレーション コンピューティングを TSMC のワークフローに統合することで達成された大幅なパフォーマンスの飛躍を強調しました。 60 社間の共有ワークフローで cuLitho をテストしたところ、カーブ プロセスでは XNUMX 倍の高速化が達成され、従来のマンハッタン プロセスでは XNUMX 倍近くの改善が達成されました。
新しいヒューマノイドロボットベースモデルとコンピュータの紹介: Isaac Robot Platform メジャーアップデート
NVIDIA は、生成 AI に加えて、身体化されたインテリジェンスにも前向きであり、ヒューマノイド ロボットのユニバーサル ベース モデル プロジェクト GR00T と、Thor SoC をベースにした新しいヒューマノイド ロボット コンピュータ Jetson Thor を発表しました。ジェンセン・フアン氏は、「汎用人型ロボットの基本モデルの開発は、今日の AI 分野で最もエキサイティングなトピックの 00 つです。」と述べています。 GRXNUMXT を搭載したロボットは、人間の行動を観察することで自然言語を理解し、迅速な学習調整、柔軟性、その他のスキルを模倣して現実世界に適応し対話することができます。 Huang Renxun 氏は、このようなロボットが複数でさまざまなタスクを完了する方法を実証しました。
Jetson Thor は、パフォーマンス、消費電力、サイズが最適化されたモジュラー アーキテクチャを備えています。この SoC には、GR00T のようなマルチモーダル生成 AI モデルを実行するための Transformer エンジンを備えた次世代 Blackwell GPU が含まれています。 NVIDIA は、1X、Agility Robotics、Apptronik、Boston Dynamics、Figure AI、Fourier Intelligence、Sanctuary AI、Unitree Robotics、XPENG Robotics などの大手ヒューマノイド ロボット企業向けに包括的な AI プラットフォームを開発しています。
さらに、NVIDIA は、生成 AI ベースモデル、シミュレーションツール、AI ワークフローインフラストラクチャなど、Isaac ロボットプラットフォームを大幅にアップグレードしました。これらの新機能は、次の四半期に展開される予定です。NVIDIA はまた、柔軟性とモジュール式 AI 機能を備えたロボットアーム用の Isaac Manipulator などの一連の事前トレーニング済みロボットモデル、ライブラリ、リファレンスハードウェア、およびマルチカメラ設定、3D 再構築、奥行き認識などの高度な機能を提供する Isaac Perceptor などの一連のベースモデルと GPU アクセラレーションライブラリもリリースしました。
Omniverse プラットフォームの最新開発: Apple Vision Pro への進出、クラウド API の導入
NVIDIA は、Omniverse プラットフォームと Apple Vision Pro の統合を発表しました。
NVIDIA は、産業用デジタル ツイン アプリケーションをターゲットに、Omniverse Cloud を API 形式で提供します。開発者はこの API を利用して、インタラクティブな産業用デジタル ツイン コンテンツを VR ヘッドセットにストリーミングできます。
API を活用することで、開発者は Omniverse のコア テクノロジーを既存のデジタル ツイン設計および自動化ソフトウェア アプリケーションに直接統合したり、ロボットや自動運転車などの自律型マシンをテストおよび検証するためのシミュレーション ワークフローに簡単に統合したりできます。ジェンスン・フアン氏は、すべての製造製品にはデジタル ツインが搭載され、オムニバースは物理的に現実的なデジタル ツインを構築および操作できるオペレーティング システムであると考えています。彼は、「オムニバースと生成 AI はどちらも、最大 50 兆ドル相当の重工業市場をデジタル化するために必要な基礎テクノロジーである」と信じています。
5 つの新しい Omniverse Cloud API は、個別に使用することも、組み合わせて使用することもできます: USD レンダー (OpenUSD データの完全にレイトレースされた RTX レンダリングを生成)、USD ライト (ユーザーが OpenUSD データを変更および操作できるようにします)、USD クエリ (シーン クエリをサポートし、インタラクティブ シーン)、USD Notify (USD の変更を追跡し、更新情報を提供)、オムニバース チャネル (シーンを超えたコラボレーションのためにユーザー、ツール、世界を接続)。
Omniverse Cloud API は、NVIDIA A10 GPU 上のセルフホスト API、または NVIDIA OVX にデプロイされたホスト サービスとして、今年後半に Microsoft Azure で利用可能になる予定です。
結論: メインイベントは終了しますが、ショーは続けなければなりません
上記の重要な発表に加えて、Huang 氏は講演の中でさらなる展開についても共有しました。NVIDIA は、電気通信分野における無線通信技術の開発を促進するために、生成 AI とオムニバースを活用した 6G 研究クラウド プラットフォームを立ち上げました。 NVIDIA の Earth-2 気候デジタル ツイン クラウド プラットフォームは、気候と天気の予測を加速するインタラクティブな高解像度シミュレーションに利用できるようになりました。彼は、AI の最大の影響はヘルスケアにあると信じています。 NVIDIA は、新しいタイプの生物学的ソフトウェアを導入しながら、イメージング システム会社、遺伝子シーケンサー メーカー、大手手術ロボット会社とすでに協力しています。
自動車業界では、世界最大の自動運転会社 BYD が、将来の電気自動車に、Blackwell アーキテクチャに基づく NVIDIA の次世代自動運転車 (AV) プロセッサ DRIVE Thor を搭載する予定です。 DRIVE Thor は早ければ来年にも量産が開始され、その性能は最大 1000 TFLOPS に達すると予想されています。
Huang 氏は、「NVIDIA の本質は、コンピューター グラフィックス、物理学、人工知能の交差点にあります。」と述べました。講演の締めくくりとして、同氏は、New Industry、Blackwell Platform、NIM、NEMO、NVIDIA AI Foundry、Omniverse、Isaac Robotics の 5 つの重要なポイントについて概説しました。
今日は、NVIDIA が AI、大規模モデル、メタバース、ロボット、自動運転、ヘルスケア、量子コンピューティングなどの最先端テクノロジーを中心にお祭り騒ぎを繰り広げながら、AI ハードウェアとソフトウェアの限界を押し上げる新たなマイルストーンを迎えます。
Jensen Huang 氏の基調講演は間違いなく GTC カンファレンスのハイライトでしたが、現地の参加者とリモート参加者の両方にとって興奮は始まったばかりでした。
NVIDIA の最新の進歩とフロンティア テクノロジにおける注目のトピックをカバーする 1000 を超えるセッションが、講演、トレーニング セッション、ラウンドテーブル ディスカッションを通じて展開されます。多くの出席者は、時間の制約によりすべてのセッションに参加できないことに不満を表明しましたが、GTC 2024 が AI 業界の技術交流に提供するプラットフォームであることを認めました。この期間中の新製品のリリースと技術の共有は、学術研究や関連産業チェーンにプラスの影響を与えることが期待されます。新しい Blackwell アーキテクチャの技術的な詳細については、さらに詳しく調査する必要があります。
関連製品:
- OSFP-800G-FR4 800G OSFP FR4 (回線あたり 200G) PAM4 CWDM デュプレックス LC 2km SMF 光トランシーバー モジュール $5000.00
- OSFP-800G-2FR2L 800G OSFP 2FR2 (回線あたり 200G) PAM4 1291/1311nm 2km DOM デュプレックス LC SMF 光トランシーバ モジュール $4500.00
- OSFP-800G-2FR2 800G OSFP 2FR2 (回線あたり 200G) PAM4 1291/1311nm 2km DOM デュアル CS SMF 光トランシーバ モジュール $4500.00
- OSFP-800G-DR4 800G OSFP DR4 (回線あたり 200G) PAM4 1311nm MPO-12 500m SMF DDM 光トランシーバー モジュール $3500.00
- NVIDIA MMS4X00-NM-FLT 互換 800G ツインポート OSFP 2x400G フラットトップ PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1200.00
- NVIDIA MMA4Z00-NS-FLT 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $850.00
- NVIDIA MMS4X00-NM 互換 800Gb/s ツインポート OSFP 2x400G PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1100.00
- NVIDIA MMA4Z00-NS 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $750.00
- NVIDIA MMS1Z00-NS400 互換 400G NDR QSFP112 DR4 PAM4 1310nm 500m MPO-12 FEC 光トランシーバー モジュール付き $800.00
- NVIDIA MMS4X00-NS400 互換 400G OSFP DR4 フラットトップ PAM4 1310nm MTP/MPO-12 500m SMF FEC 光トランシーバー モジュール $800.00
- NVIDIA MMS4X50-NM 互換 OSFP 2x400G FR4 PAM4 1310nm 2km DOM デュアルデュプレックス LC SMF 光トランシーバー モジュール $1350.00
- OSFP-XD-1.6T-4FR2 1.6T OSFP-XD 4xFR2 PAM4 1291/1311nm 2km SN SMF 光トランシーバ モジュール $17000.00
- OSFP-XD-1.6T-2FR4 1.6T OSFP-XD 2xFR4 PAM4 2x CWDM4 2km デュアルデュプレックス LC SMF 光トランシーバーモジュール $22400.00
- OSFP-XD-1.6T-DR8 1.6T OSFP-XD DR8 PAM4 1311nm 2km MPO-16 SMF 光トランシーバー モジュール $12600.00