Data Center Interconnection (DCI) ist eine Netzwerklösung, die die Verbindung zwischen mehreren Rechenzentren realisiert. Das Rechenzentrum ist eine wichtige Infrastruktur für die digitale Transformation. Dank des Aufkommens von Cloud Computing, Big Data und künstlicher Intelligenz werden Rechenzentren von Unternehmen immer häufiger genutzt. Immer mehr Organisationen und Unternehmen stellen mehrere Rechenzentren in verschiedenen Regionen bereit, um die Anforderungen von Szenarien wie überregionale Operationen, Benutzerzugriff und Remote-Disaster-Recovery zu erfüllen. Derzeit müssen mehrere Rechenzentren miteinander verbunden werden.
Was ist ein Rechenzentrum?
Mit der kontinuierlichen Entwicklung der industriellen digitalen Transformation sind Daten zu einem zentralen Produktionsfaktor geworden. Rechenzentren, die für die Berechnung, Speicherung und Weiterleitung von Daten verantwortlich sind, sind die kritischste digitale Infrastruktur in der neuen Infrastruktur. Ein modernes Rechenzentrum umfasst im Wesentlichen folgende Kernkomponenten:
- Ein Computersystem, einschließlich allgemeiner Computermodule zum Bereitstellen von Diensten und Hochleistungscomputermodulen, die Supercomputing-Leistung bereitstellen.
- Speichersysteme, einschließlich Massenspeichermodule, Datenmanagement-Engines und dedizierte Speichernetzwerke.
- Das Energiesystem umfasst die Stromversorgung, Temperaturregelung, IT-Management etc.
- Das Rechenzentrumsnetzwerk ist für die Verbindung von allgemeinem Computing, High Performance Computing und Speichermodulen innerhalb des Rechenzentrums verantwortlich, und alle Dateninteraktionen zwischen ihnen müssen über das Rechenzentrumsnetzwerk realisiert werden.
Schematische Darstellung der Zusammensetzung des Rechenzentrums
Darunter übernimmt das allgemeine Rechenmodul direkt die Geschäfte des Benutzers, und die physische Basiseinheit, auf die es sich stützt, ist eine große Anzahl von Servern. Wenn der Server der Körper ist, den das Rechenzentrum betreibt, ist das Rechenzentrumsnetzwerk die Seele des Rechenzentrums.
Warum brauchen wir Rechenzentrumsverbindungen?
Derzeit ist der Bau von Rechenzentren für verschiedene Organisationen und Unternehmen weit verbreitet, aber es ist schwierig für ein einzelnes Rechenzentrum, die Geschäftsanforderungen der neuen Ära zu erfüllen. Daraus ergibt sich ein dringender Bedarf für die Zusammenschaltung mehrerer Rechenzentren, was sich vor allem in den folgenden Aspekten widerspiegelt.
- Das schnelle Wachstum der Unternehmensskala
Heutzutage entwickeln sich aufstrebende Geschäftsfelder wie Cloud Computing und Intelligence rasant, und die Zahl verwandter Anwendungen, die stark von Rechenzentren abhängig sind, nimmt ebenfalls rapide zu. Daher wächst der Umfang der von Rechenzentren durchgeführten Geschäfte schnell, und die Ressourcen eines einzelnen Rechenzentrums werden bald nicht mehr ausreichen.
Eingeschränkt durch Faktoren wie Flächenverbrauch und Energieversorgung des Rechenzentrumsbaus ist es unmöglich, ein einzelnes Rechenzentrum unbegrenzt zu erweitern. Wenn die Unternehmensgröße ein bestimmtes Niveau erreicht, ist es notwendig, mehrere Rechenzentren in derselben Stadt oder an verschiedenen Orten zu bauen. Derzeit müssen mehrere Rechenzentren miteinander verbunden werden und zusammenarbeiten, um den Geschäftssupport zu vervollständigen.
Darüber hinaus müssen Unternehmen in der gleichen Branche und in verschiedenen Branchen im Zusammenhang mit der wirtschaftlichen digitalen Transformation häufig Daten gemeinsam nutzen und zusammenarbeiten, um gemeinsame Geschäftserfolge zu erzielen, was auch die Verbindung und Kommunikation zwischen Rechenzentren unterschiedlicher Art erfordert Firmen.
- Der überregionale Benutzerzugriff wird immer häufiger
Das Kerngeschäft von Rechenzentren hat sich in den letzten Jahren von Webservices hin zu Cloudservices und Datenservices gewandelt. Der Umfang der Benutzer verwandter Organisationen und Unternehmen ist nicht mehr durch Regionen begrenzt. Gerade wenn das mobile Internet sehr beliebt ist, erwarten die Nutzer jederzeit und überall hochwertige Dienste. Um die oben genannten Anforderungen zu erfüllen und das Benutzererlebnis weiter zu verbessern, errichten qualifizierte Unternehmen in der Regel mehrere Rechenzentren in verschiedenen Regionen, um den nahen Zugriff von Benutzern über Regionen hinweg zu erleichtern. Dies erfordert, dass die Unternehmensbereitstellung rechenzentrumsübergreifend ist und die Verbindung mehrerer Rechenzentren unterstützt.
Überregionaler Benutzerzugriff
- Strenge Anforderungen für Remote-Backup und Disaster Recovery
Die tägliche Arbeit der Menschen hängt immer mehr von verschiedenen Anwendungssystemen ab, deren Kontinuität vom stabilen Betrieb des Rechenzentrumssystems abhängt. Gleichzeitig wird der Datensicherheit immer mehr Aufmerksamkeit geschenkt, Business Reliability, Continuity, Backup und Disaster Recovery sind zu starren Anforderungen geworden.
Rechenzentren sind immer potenziellen Bedrohungen wie verschiedenen Naturkatastrophen, von Menschen verursachten Angriffen und unerwarteten Unfällen in einer Umgebung voller Unsicherheit und verschiedener Risiken ausgesetzt. Es hat sich allmählich zu einer effektiven und branchenweit anerkannten Lösung entwickelt, die die Geschäftskontinuität und Robustheit sowie die hohe Zuverlässigkeit und Verfügbarkeit von Daten verbessert, indem mehrere Rechenzentren an verschiedenen Orten bereitgestellt werden. Die Rechenzentrumsverbindung muss zuerst abgeschlossen werden, um Sicherungs- und Notfallwiederherstellungslösungen zwischen verschiedenen Rechenzentren bereitzustellen.
Remote-Backup und Disaster Recovery
- Trends in Rechenzentrumsvirtualisierung und Ressourcenpooling
Mit der schrittweisen Reife des Cloud-Computing-Geschäftsmodells bewegen sich verschiedene Anwendungen und traditionelle IT-Services „in Richtung Cloud“, und der Cloud-Service wird zu einem neuen Wertschöpfungszentrum. Daher ist der Übergang von traditionellen Rechenzentren zu Cloud-basierten Rechenzentren zu einem Mainstream-Trend geworden. Virtualisierung und Ressourcenpooling sind Schlüsselfunktionen von Cloud-basierten Rechenzentren. Die Kernidee besteht darin, die kleinste Funktionseinheit eines Rechenzentrums von einem physischen Host in eine VM (Virtual Machine) zu verwandeln.
Diese VMs haben nichts mit dem physischen Standort zu tun, und ihre Ressourcennutzung kann flexibel gestreckt werden. Sie unterstützen die freie Migration zwischen Servern und Rechenzentren, wodurch die Ressourcenintegration innerhalb und zwischen Rechenzentren realisiert wird, wodurch ein einheitlicher Ressourcenpool entsteht, der die Flexibilität und Effizienz der Ressourcennutzung erheblich verbessert. Die Verbindung zwischen Rechenzentren ist eine Voraussetzung für die Realisierung einer VM-Migration über Rechenzentren hinweg. Daher ist die Verbindung von Rechenzentren auch ein wichtiges Bindeglied bei der Realisierung von Rechenzentrumsvirtualisierung und Ressourcenpooling.
Virtualisierung und Ressourcenpooling
Welche Optionen gibt es für die Rechenzentrumsvernetzung?
Um den Anforderungen von Cloud-basierten Rechenzentren besser gerecht zu werden, sind viele Netzwerklösungen für Rechenzentren entstanden, wie z -FabricInsight). Hier sind zwei empfohlene Verbindungslösungen für Rechenzentren.
- End-to-End-VXLAN-Lösung
Die Verbindung von Rechenzentren auf der Grundlage von End-to-End-VXLAN-Tunneln bedeutet, dass das Computing und das Netzwerk mehrerer Rechenzentren einheitliche Ressourcenpools sind, die zentral von einer Cloud-Plattform und einem Satz von iMaster NCE-Fabric verwaltet werden. Mehrere Rechenzentren sind einheitliche End-to-End-VXLAN-Domänen, und die VPC (Virtual Private Clouds) und Subnetze der Benutzer können über Rechenzentren hinweg bereitgestellt werden, was eine direkte Interoperabilität der Dienste ermöglicht. Die Bereitstellungsarchitektur ist in der folgenden Abbildung dargestellt.
Schematische Darstellung der End-to-End-VXLAN-Lösungsarchitektur
Bei dieser Lösung müssen End-to-End-VXLAN-Tunnel zwischen mehreren Rechenzentren eingerichtet werden. Wie in der Abbildung unten gezeigt, müssen erstens die Underlay-Routen zwischen den Rechenzentren miteinander kommunizieren; Zweitens muss EVPN auf der Ebene des Overlay-Netzwerks zwischen den Leaf-Geräten der beiden Rechenzentren bereitgestellt werden. Auf diese Weise erkennen die Leaf-Geräte an beiden Enden einander über das EVPN-Protokoll und übertragen einander VXLAN-Kapselungsinformationen über die EVPN-Route, wodurch der Aufbau eines End-to-End-VXLAN-Tunnels ausgelöst wird.
Schematische Darstellung eines End-to-End-VXLAN-Tunnels
Diese Lösung wird hauptsächlich verwendet, um Muti-PoD-Szenarien abzugleichen. PoD (Point of Delivery) bezieht sich auf eine Reihe relativ unabhängiger physischer Ressourcen. Multi-PoD bezieht sich auf die Verwendung eines Satzes von iMaster NCE-Fabric zur Verwaltung mehrerer PoDs, und mehrere PoDs bilden eine End-to-End-VXLAN-Domäne. Dieses Szenario eignet sich für die Verbindung mehrerer kleiner Rechenzentren, die in derselben Stadt nahe beieinander liegen.
- VXLAN-Segment Die Lösung
Die auf dem Segment-VXLAN-Tunnel basierende Rechenzentrumsverbindung bedeutet, dass in einem Szenario mit mehreren Rechenzentren das Computing und das Netzwerk jedes Rechenzentrums unabhängige Ressourcenpools sind, die unabhängig von ihren eigenen Cloud-Plattformen und iMaster NCE-Fabric verwaltet werden. Jedes Rechenzentrum ist eine unabhängige VXLAN-Domäne, und zwischen den Rechenzentren muss eine weitere DCI-VXLAN-Domäne eingerichtet werden, um Interoperabilität zu erreichen. Darüber hinaus werden die VPCs und Subnetze der Benutzer in ihren eigenen Rechenzentren bereitgestellt. Daher muss die geschäftliche Interoperabilität zwischen verschiedenen Rechenzentren von einer übergeordneten Cloud-Management-Plattform orchestriert werden. Die Bereitstellungsarchitektur ist in der folgenden Abbildung dargestellt.
Segment VXLAN-Lösungsarchitekturdiagramm
Bei dieser Lösung müssen VXLAN-Tunnel innerhalb und zwischen Rechenzentren eingerichtet werden. Wie in der Abbildung unten gezeigt, sind erstens Underlay-Routen zwischen Rechenzentren erforderlich, um miteinander zu kommunizieren; Zweitens muss EVPN auf Overlay-Netzwerkebene zwischen Leaf-Geräten und DCI-Gateways innerhalb des Rechenzentrums sowie zwischen ihnen bereitgestellt werden DCI Gateways in verschiedenen Rechenzentren. Auf diese Weise erkennen verwandte Geräte einander über das EVPN-Protokoll und übertragen einander VXLAN-Kapselungsinformationen über EVPN-Routen, wodurch der Aufbau von Segment-VXLAN-Tunneln ausgelöst wird.
Segment-VXLAN-Tunneldiagramm
Diese Lösung wird hauptsächlich zur Anpassung an das Multi-Site-Szenario verwendet. Das Szenario eignet sich für die Verbindung mehrerer Rechenzentren in verschiedenen Regionen oder die Verbindung mehrerer Rechenzentren, die zu weit entfernt sind, um von demselben Satz von iMaster NCE-Fabric verwaltet zu werden.
Wozu Schlüsseltechnologien benötigt werden DCI?
VXLAN ist eine Tunneling-Technologie, die ein virtuelles Layer-2-Netzwerk über jedes Netzwerk legen kann, das über eine Route erreicht werden kann, und die Interkommunikation innerhalb des VXLAN-Netzwerks über ein VXLAN-Gateway realisieren kann. Inzwischen kann auch eine Interkommunikation mit herkömmlichen Nicht-VXLAN-Netzwerken erreicht werden. VXLAN verwendet MAC in UDP-Kapselungstechnologie, um das Layer-2-Netzwerk zu erweitern, kapselt Ethernet-Pakete auf IP-Paketen und überträgt sie über IP-Routing in das Netzwerk. Das zwischengeschaltete Gerät muss die MAC-Adresse der VM nicht beachten. Darüber hinaus hat das IP-Routing-Netzwerk keine Beschränkungen der Netzwerkstruktur, mit umfassender Skalierbarkeit, sodass die VM-Migration nicht durch die Netzwerkarchitektur begrenzt ist.
EVPN ist eine Full-Service-Träger-VPN-Lösung der nächsten Generation. EVPN vereinheitlicht die Steuerungsebene verschiedener VPN-Dienste und verwendet das BGP-Erweiterungsprotokoll, um die Erreichbarkeitsinformationen von Schicht 2 oder Schicht 3 zu übertragen, wodurch die Trennung der Weiterleitungsebene und der Steuerungsebene realisiert wird. Mit der tiefgreifenden Entwicklung von Rechenzentrumsnetzwerken wurden EVPN und VXLAN schrittweise integriert.
VXLAN führt das EVPN-Protokoll als Control Plane ein, was zunächst das Fehlen einer Control Plane ausgleicht. EVPN verwendet VXLAN als öffentlichen Netzwerktunnel, wodurch EVPN in Szenarien wie der Verbindung von Rechenzentren breiter eingesetzt werden kann.
FiberMall 200G QSFP56 ER4 geeignet für Metro DCI is in F&E
Im Zusammenhang mit 5G sind Breitbandgeschwindigkeit, Übertragungsdistanz und Kostenkontrolle die Richtungen der Benutzer von Rechenzentren und optischen Übertragungsnetzen in Metros. FiberMall entwickelt das optische 200G QSFP56 ER4-Modul, um der Marktnachfrage gerecht zu werden. Es übernimmt die Mainstream-4-Kanal-WDM-Optical-Engine-Architektur auf dem Markt und integriert einen 4-Kanal-Kühl-EML-Laser und einen APD-Fotodetektor. Es unterstützt auch eine 200GE-Rate (4X53Gbps) und OTN Standard, geeignet für 200G-Metro-DCI-Fernverbindung und 5G-Backhaul.
FiberMalls 200G QSFP56 Das optische ER4-Modul hat einen Stromverbrauch von 6.4 W bei Raumtemperatur und einen Stromverbrauch von weniger als 7.5 W bei drei Temperaturen mit hervorragender Energiesparleistung. Das optische Modul entspricht dem QSFP56 MSA- und IEEE 802.3cn 200GBASE-ER4-Ethernet-Standard mit einer überlegenen OMA-Empfangsempfindlichkeit von besser als -17 dBm. Aufgrund der Verwendung von 50G PAM4 CDR auf Basis der DSP-Technologie verfügt das Produkt über eine hervorragende Leistung und erfüllt die Single-Mode-Dual-Fiber-Übertragungsentfernung von 40 km vollständig.
Die hervorragende Leistung des Produkts ist wie folgt:
Optisches Augendiagramm
Bestehen des 40-km-Fasertests bei einer hohen Temperatur von 70 ° C und des FEC-Margin-Leistungstests
200G QSFP56 ER4 OMA-Empfindlichkeit
FiberMall 200G-Produktlinie:
- Aktive optische Kabelserie:
200G QSFP56 AOC
200G QSFP-DD AOC
- 4-Kanal optisches Modul:
200G QSFP56 SR4
200G QSFP56 DR4
200G QSFP56 FR4
200G QSFP56 LR4
FiberMall QSFP56 200G SR4
Ähnliche Produkte:
- Cisco-kompatibler 100G DWDM QSFP28 C25 C26 100GHz CS DDM Optischer Transceiver $1600.00
- Q28-DW100G27-80C 100G DWDM QSFP28 PAM4 Single Wave C27 1555.75nm 100GHz LC 80km DDM Optisches Transceiver-Modul $1900.00
- EDFA 40/80 Kanäle DWDM C-Band Optischer Vorverstärker Maximale Ausgangsleistung +16 dBm Verstärkung 25 dB Gesättigte optische Leistung -9 dBm $1139.00
- DCM 80 km DCF-basiertes passives Dispersionskompensationsmodul, 8.0 dB Low Loss, LC/UPC-Anschluss $929.00
- CFP2-200G-DCO 200G kohärentes CFP2-DCO C-Band abstimmbares optisches Transceiver-Modul $7000.00
- CFP2-400G-DCO 400G kohärentes CFP2-DCO C-Band abstimmbares optisches Transceiver-Modul $8000.00
- QSFP-DD-400G-DCO-ZR 400G kohärentes QSFP-DD DCO C-Band abstimmbares optisches Transceiver-Modul $6500.00
- 40G/100G OTU (OEO) Servicekarte, Transponder, 2 Kanäle, unterstützt vier 40G QSFP+ oder 100G QSFP28, mit 3R-System $900.00
- 200G Transponder/Muxponder: 2x 100G QSFP28 bis 1x 200G CFP2 DP-8QAM oder DP-16QAM $4550.00
- 400G Transponder/Muxponder: 4x 100G QSFP28 bis 1x 400G CFP2 DP-16QAM und 200G DP-16QAM $5000.00