データセンター相互接続(DCI)は、複数のデータセンター間の相互接続を実現するネットワークソリューションです。 データセンターは、デジタルトランスフォーメーションの重要なインフラストラクチャです。 クラウドコンピューティング、ビッグデータ、人工知能の台頭により、エンタープライズデータセンターはますます広く使用されています。 ますます多くの組織や企業が、さまざまな地域に複数のデータセンターを導入して、地域間の運用、ユーザーアクセス、リモートディザスタリカバリなどのシナリオのニーズに対応しています。 現時点では、複数のデータセンターを相互接続する必要があります。
データセンターとは何ですか?
産業用デジタルトランスフォーメーションの継続的な開発により、データは重要な生産要素になりました。 データの計算、保存、転送を担当するデータセンターは、新しいインフラストラクチャで最も重要なデジタルインフラストラクチャです。 最新のデータセンターには、主に次のコアコンポーネントが含まれています。
- サービスを展開するための一般的なコンピューティングモジュールと、スーパーコンピューティングパワーを提供する高性能コンピューティングモジュールを含むコンピューティングシステム。
- 大容量記憶装置モジュール、データ管理エンジン、専用ストレージネットワークなどのストレージシステム。
- エネルギーシステムには、電源、温度制御、IT管理などが含まれます。
- データセンターネットワークは、データセンター内の一般的なコンピューティング、高性能コンピューティング、およびストレージモジュールを接続する役割を果たし、それらの間のすべてのデータ相互作用は、データセンターネットワークを介して実現する必要があります。
データセンターの構成の概略図
その中で、一般的なコンピューティングモジュールはユーザーのビジネスを直接引き受け、それが依存する物理的な基本ユニットは多数のサーバーです。 サーバーがデータセンターの運営機関である場合、データセンターネットワークはデータセンターの魂です。
なぜデータセンターの相互接続が必要なのですか?
現在、さまざまな組織や企業向けのデータセンターの構築は非常に一般的ですが、単一のデータセンターで新しい時代のビジネスニーズを満たすことは困難です。 その結果、複数のデータセンターの相互接続が急務となっており、これは主に以下の側面に反映されています。
- 事業規模の急成長
現在、クラウドコンピューティングやインテリジェンスなどの新興ビジネスが急速に発展しており、データセンターに強く依存する関連アプリケーションの数も急速に増加しています。 そのため、データセンターの事業規模は急速に拡大しており、まもなく単一のデータセンターのリソースが不足することになります。
土地の占有やデータセンター建設のエネルギー供給などの要因によって制限され、単一のデータセンターが無期限に拡張することは不可能です。 事業規模が一定のレベルに達すると、同じ都市や異なる場所に複数のデータセンターを構築する必要があります。 現時点では、ビジネスサポートを完了するために、複数のデータセンターを相互接続して連携させる必要があります。
さらに、経済的なデジタルトランスフォーメーションのコンテキストでは、共通のビジネスの成功を達成するために、同じ業界および異なる業界の企業は、データレベルで頻繁に共有および協力する必要があります。これには、異なるデータセンター間の相互接続と相互通信も必要です。企業。
- 地域を超えたユーザーアクセスはますます一般的になっています
近年、データセンターの中心的なビジネスは、Webサービスからクラウドサービスおよびデータサービスに変わりました。 関連する組織や企業のユーザーの範囲は、地域によって制限されなくなりました。 特にモバイルインターネットが非常に人気がある場合、ユーザーはいつでもどこでも高品質のサービスを楽しむことを期待しています。 上記の要件を満たし、ユーザーエクスペリエンスをさらに向上させるために、資格のある企業は通常、さまざまな地域に複数のデータセンターを構築し、地域間でのユーザーの近くへのアクセスを容易にします。 これには、ビジネス展開がデータセンターを横断し、複数のデータセンターの相互接続をサポートできることが必要です。
地域を超えたユーザーアクセス
- リモートバックアップとディザスタリカバリの厳格な要件
人々の日常業務は、さまざまなアプリケーションシステムにますます依存しており、その継続性は、データセンターシステムの安定した運用に依存しています。 同時に、データのセキュリティ、ビジネスの信頼性、継続性、バックアップ、およびディザスタリカバリが厳格な要件になっていることにますます注意が払われています。
データセンターは、不確実性とさまざまなリスクに満ちた環境で、さまざまな自然災害、人為的な攻撃、予期しない事故などの潜在的な脅威に常に直面しています。 複数のデータセンターをさまざまな場所に配置することで、ビジネスの継続性と堅牢性、およびデータの高い信頼性と可用性を向上させる、業界で一般的に認識されている効果的なソリューションになりつつあります。 異なるデータセンター間でバックアップおよびディザスタリカバリソリューションを展開するには、最初にデータセンターの相互接続を完了する必要があります。
リモートバックアップとディザスタリカバリ
- データセンターの仮想化とリソースプーリングのトレンド
クラウドコンピューティングのビジネスモデルが段階的に成熟するにつれ、さまざまなアプリケーションや従来のITサービスが「クラウドに移行」し、クラウドサービスは新しいバリューセンターになりつつあります。 したがって、従来のデータセンターからクラウドベースのデータセンターへの移行が主流のトレンドになっています。 仮想化とリソースプーリングは、クラウドベースのデータセンターの重要な機能です。 中心的なアイデアは、データセンターの最小機能ユニットを物理ホストからVM(仮想マシン)に変換することです。
これらのVMは物理的な場所とは関係がなく、リソースの使用量を柔軟に拡張できます。 サーバーとデータセンター間での無料の移行をサポートし、データセンター内およびデータセンター間のリソース統合を実現し、統合されたリソースプールを形成します。これにより、リソース使用率の柔軟性と効率が大幅に向上します。 データセンター間の相互接続は、データセンター間でのVMの移行を実現するための前提条件です。 したがって、データセンターの相互接続は、データセンターの仮想化とリソースプーリングを実現する上で重要なリンクでもあります。
仮想化とリソースプーリング
データセンターの相互接続のオプションは何ですか?
クラウドベースのデータセンターのニーズをよりよく満たすために、HW データセンター スイッチ (CloudEngine シリーズ)、HW データセンター コントローラー (iMaster NCE-Fabric)、インテリジェント ネットワーク分析プラットフォーム (iMaster NCE) など、多くのデータセンター ネットワーク ソリューションが登場しました。 -FabricInsight)。 ここでは、推奨されるデータセンター相互接続ソリューションを XNUMX つ紹介します。
- エンドツーエンドのVXLANソリューション
エンドツーエンドのVXLANトンネルに基づくデータセンターの相互接続は、複数のデータセンターのコンピューティングとネットワークが統合されたリソースプールであり、クラウドプラットフォームと一連のiMasterNCE-Fabricによって一元管理されることを意味します。 複数のデータセンターが統合されたエンドツーエンドのVXLANドメインとユーザーのVPC(Virtual Private Clouds)であり、サブネットをデータセンター全体にデプロイできるため、サービスの直接的な相互運用が可能になります。 次の図に、展開アーキテクチャを示します。
エンドツーエンドのVXLANソリューションアーキテクチャの概略図
このソリューションでは、エンドツーエンドのVXLANトンネルを複数のデータセンター間に確立する必要があります。 次の図に示すように、最初に、データセンター間のアンダーレイルートは相互に通信する必要があります。 次に、オーバーレイネットワークレベルでは、XNUMXつのデータセンターのリーフデバイス間にEVPNを導入する必要があります。 このようにして、両端のリーフデバイスはEVPNプロトコルを介して相互に検出し、VXLANカプセル化情報をEVPNルートを介して相互に送信し、それによってエンドツーエンドのVXLANトンネルの確立をトリガーします。
エンドツーエンドVXLANトンネルの概略図
このソリューションは、主にMuti-PoDシナリオを照合するために使用されます。 PoD(Point of Delivery)は、比較的独立した一連の物理リソースを指します。 マルチPoDとは、一連のiMaster NCE-Fabricを使用して複数のPoDを管理することを指し、複数のPoDがエンドツーエンドのVXLANドメインを形成します。 このシナリオは、同じ都市内で互いに近接している複数の小規模データセンターの相互接続に適しています。
- セグメントVXLAN 解決策
セグメントVXLANトンネルに基づくデータセンターの相互接続は、マルチデータセンターのシナリオでは、各データセンターのコンピューティングとネットワークが独立したリソースプールであり、独自のクラウドプラットフォームとiMasterNCE-Fabricによって独立して管理されることを意味します。 各データセンターは独立したVXLANドメインであり、相互運用性を実現するには、データセンター間に別のDCIVXLANドメインを確立する必要があります。 さらに、ユーザーのVPCとサブネットは独自のデータセンターに展開されます。 したがって、異なるデータセンター間のビジネスの相互運用性は、より高いレベルのクラウド管理プラットフォームによって調整される必要があります。 次の図に、展開アーキテクチャを示します。
セグメントVXLANソリューションアーキテクチャ図
このソリューションでは、データセンター内およびデータセンター間にVXLANトンネルを確立する必要があります。 次の図に示すように、まず、データセンター間のアンダーレイルートは相互に通信する必要があります。 次に、オーバーレイネットワークレベルでは、EVPNをリーフデバイスとデータセンター内のDCIゲートウェイ間、およびデータセンター間で展開する必要があります。 DCI さまざまなデータセンターのゲートウェイ。 このようにして、関連するデバイスはEVPNプロトコルを介して相互に検出し、VXLANカプセル化情報をEVPNルートを介して相互に送信し、それによってセグメントVXLANトンネルの確立をトリガーします。
セグメントVXLANトンネル図
このソリューションは、主にマルチサイトシナリオに対応するために使用されます。 このシナリオは、異なる地域にある複数のデータセンターの相互接続、または同じセットのiMasterNCE-Fabricで管理するには遠すぎる複数のデータセンターの相互接続に適しています。
必要な主要テクノロジー DCI?
VXLANは、ルートで到達可能な任意のネットワークにレイヤー2仮想ネットワークを重ね合わせ、VXLANゲートウェイを介してVXLANネットワーク内で相互通信を実現できるトンネリングテクノロジーです。 一方、従来の非VXLANネットワークとの相互通信も実現できます。 VXLANは、UDPカプセル化テクノロジーでMACを使用して、レイヤー2ネットワークを拡張し、イーサネットパケットをIPパケットの上にカプセル化し、IPルーティングを介してネットワークに送信します。 中間デバイスは、VMのMACアドレスに注意を払う必要はありません。 さらに、IPルーティングネットワークにはネットワーク構造の制限がなく、大規模なスケーラビリティがあるため、VMの移行はネットワークアーキテクチャによって制限されません。
EVPNは、次世代のフルサービスベアラVPNソリューションです。 EVPNは、さまざまなVPNサービスのコントロールプレーンを統合し、BGP拡張プロトコルを使用してレイヤ2またはレイヤ3のアクセシビリティ情報を送信し、フォワーディングプレーンとコントロールプレーンの分離を実現します。 データセンターネットワークの徹底的な開発により、EVPNとVXLANは徐々に統合されてきました。
VXLANは、コントロールプレーンとしてEVPNプロトコルを導入します。これは、最初はコントロールプレーンの不足を補います。 EVPNは、パブリックネットワークトンネルとしてVXLANを使用します。これにより、データセンターの相互接続などのシナリオでEVPNをより広く使用できるようになります。
ファイバーモール 200G QSFP56 ER4はメトロDCIに適しています is 研究開発における
5G のコンテキストでは、ブロードバンド速度、伝送距離、およびコスト管理が、データ センターおよびメトロ光伝送ネットワーク ユーザーの方向性です。 FiberMall は、市場の需要を満たすために 200G QSFP56 ER4 光モジュールを開発しています。 市場で主流の 4 チャネル WDM 光学エンジン アーキテクチャを採用し、4 チャネル冷却 EML レーザーと APD 光検出器を統合します。 また、200GE レート (4X53Gbps) と OTN 標準、200GメトロDCI長距離相互接続および5Gバックホールに適しています。
ファイバーモールの 200G QSFP56 ER4光モジュールは、室温で6.4W、7.5温度で56W以下の消費電力を実現し、優れた省エネ性能を発揮します。 光モジュールは、QSFP802.3MSAおよびIEEE200cn 4GBASE-ER17イーサネット規格に準拠しており、-50dBmよりも優れた受信OMA感度を備えています。 DSPテクノロジーに基づく4GPAM40CDRを使用しているため、この製品は優れたパフォーマンスを発揮し、XNUMXkmのシングルモードデュアルファイバー伝送距離を完全に満たします。
製品の優れた性能は次のとおりです。
光学アイダイアグラム
40℃の高温で70kmのファイバーテストとFECマージン性能テストに合格
200G QSFP56ER4OMAの感度
ファイバーモール 200G 製品ライン:
- アクティブ光ケーブルシリーズ:
200G QSFP56 AOC
200G QSFP-DD AOC
- 4チャンネル光モジュール:
200G QSFP56 SR4
200G QSFP56 DR4
200G QSFP56 FR4
200G QSFP56 LR4
ファイバーモール QSFP56 200G SR4
関連製品:
- Cisco互換100GDWDMQSFP28 C25 C26 100GHzCSDDM光トランシーバ $1600.00
- Q28-DW100G27-80C 100G DWDMQSFP28PAM4シングルウェーブC27nm1555.75GHz LC100kmDDM光トランシーバーモジュール $1900.00
- EDFA40/80チャネルDWDMCバンド光プリアンプ最大出力パワー+16dBmゲイン25dB飽和光パワー-9dBm $1139.00
- DCM 80km DCFベースのパッシブ分散補償モジュール、8.0dB低損失、LC/UPCコネクタ $929.00
- CFP2-200G-DCO200GコヒーレントCFP2-DCOCバンドチューナブル光トランシーバモジュール $7000.00
- CFP2-400G-DCO400GコヒーレントCFP2-DCOCバンドチューナブル光トランシーバモジュール $8000.00
- QSFP-DD-400G-DCO-ZR400GコヒーレントQSFP-DDDCOCバンドチューナブル光トランシーバーモジュール $6500.00
- 40G / 100G OTU(OEO)サービスカード、トランスポンダー、2チャネル、40つの100G QSFP +または28GQSFP3をサポート、XNUMXRシステム $900.00
- 200Gトランスポンダー/マクスポンダー:2x 100GQSFP28から1x200G CFP2DP-8QAMまたはDP-16QAM $4550.00
- 400Gトランスポンダー/マクスポンダー:4x100GQSFP28から1x400GCFP2DP-16QAMおよび200GDP-16QAM $5000.00