Einführung
Entwicklung der Rechenzentrumsvernetzung
In den letzten Jahrzehnten hat sich die Vernetzung von Rechenzentren massiv gewandelt – von einfachen lokalen Netzwerken hin zu komplexen verteilten Systemen. In den 1990er Jahren nutzten Rechenzentren hauptsächlich einfache Layer-2-Switching-Netzwerke, in denen die Server über Hubs oder Low-End-Switches miteinander verbunden waren. Mit der zunehmenden Verbreitung des Internets verlangten Unternehmen nach leistungsstärkeren Netzwerken, was zur Entstehung der traditionellen dreistufigen Architektur (Core, Aggregation, Access) führte.

Diese Architektur zeichnete sich durch klar abgegrenzte Funktionen aus und erfüllte gleichzeitig die Anforderungen kleiner und mittlerer Unternehmensrechenzentren zu dieser Zeit.
Mit Beginn des 21. Jahrhunderts stellten Cloud Computing, Big Data und Virtualisierung jedoch neue Herausforderungen für Netzwerke dar. Die traditionelle dreistufige Architektur brachte zunehmend Probleme wie Bandbreitenengpässe, hohe Latenzzeiten und eingeschränkte Skalierbarkeit mit sich. In virtualisierten Umgebungen beispielsweise nahm der Ost-West-Verkehr zwischen virtuellen Maschinen stark zu, während die traditionelle Architektur besser für Nord-Süd-Verkehr geeignet war und sich daher für neue Verkehrsmuster als ineffizient erwies.
So gewann etwa im Jahr 2010 die Spine-Leaf-Architektur an Bedeutung und wurde aufgrund ihres flachen Designs und ihrer hohen Leistung zum Standard für moderne Rechenzentren.
Aufstieg von Spine-Leaf und traditionellen Drei-Schichten-Architekturen
Die Spine-Leaf-Architektur überwindet die Einschränkungen der traditionellen Drei-Schichten-Architektur in Umgebungen mit hohem Datenverkehr, indem sie Netzwerkebenen reduziert und Datenpfade optimiert. Ihr Design ist von der hohen Konnektivität von Full-Mesh-Netzwerken inspiriert, optimiert jedoch die Ebenen, um Komplexität und Kosten zu reduzieren.
Darüber hinaus verleiht die Einführung von Software-Defined Networking (SDN) Spine-Leaf dynamische Verwaltungs- und Automatisierungsfunktionen und festigt so seine Vorherrschaft in modernen Rechenzentren.
Beispielsweise setzen Cloud-Computing-Giganten wie Google und Amazon in ihren Rechenzentren auf die Spine-Leaf-Architektur, um verteiltes Computing und Storage im großen Maßstab zu unterstützen. Die traditionelle Drei-Schichten-Architektur hingegen eignet sich zwar weiterhin für kleine und mittlere Unternehmen, ihre Grenzen treten jedoch in Hochlastszenarien zunehmend zutage.
Detaillierte Erklärung der Spine-Leaf-Architektur
Definition und Struktur des Spine-Leaf
Die Spine-Leaf-Architektur ist eine zweistufige Netzwerktopologie, die einfach und dennoch leistungsstark konzipiert ist. Sie besteht aus den folgenden zwei Schichten:
- Leaf-Layer: Verbindet Server, Speichergeräte oder andere Endpunkte direkt und übernimmt den Datenzugriff und die Datenweiterleitung. Jeder Leaf-Switch verfügt typischerweise über Ports mit hoher Dichte (z. B. 48 x 10 Gbit/s-Ports) und mehrere Uplink-Ports (z. B. 4 x 40 Gbit/s-Ports).
- Spine-Layer: Verbindet alle Leaf-Switches und bietet Kommunikationspfade mit hoher Bandbreite und geringer Latenz. Spine-Switches sind in der Regel Hochleistungsgeräte, die auf Hochgeschwindigkeitsweiterleitung ausgerichtet sind.

In der Spine-Leaf-Architektur ist jeder Leaf-Switch mit allen Spine-Switches verbunden, die Leaf-Switches jedoch nicht direkt miteinander. Dieses partielle Mesh-Design schafft ein Gleichgewicht zwischen Leistung und Skalierbarkeit. Eine einfache Analogie: Die Spine-Schicht fungiert als Autobahnknotenpunkt, während die Leaf-Schicht als Stadtausfahrten dient und schnelle Verbindungen zwischen allen Städten ermöglicht.
Spine-Leaf-Designs für Layer 2 und Layer 3
Schicht 2 Spine-Leaf:
- Funktionen: Verwendet Layer-2-Protokolle (z. B. Ethernet) zwischen Leaf- und Spine-Ebenen und leitet Daten über MAC-Adressen weiter. Verwendet normalerweise Spanning Tree Protocol (STP) oder MLAG-Technologie, um Schleifen zu vermeiden.
- Anwendbare Szenarien: Kleine Rechenzentren oder Umgebungen mit extrem niedrigen Latenzanforderungen, wie z. B. Handelssysteme mit geringer Latenz.
- Beispiel: Ein kleines Rechenzentrum setzt vier Leaf-Switches und zwei Spine-Switches ein. Jeder Leaf-Switch ist über 4-Gbit/s-Verbindungen mit allen Spine-Switches verbunden und bildet so ein Layer-2-Netzwerk mit etwa 10 Servern. MLAG (Multi-Link Aggregation) sorgt für Redundanz.
- Vorteile: Einfache Konfiguration, geringe Latenz (typischerweise unter 1 ms).
- Einschränkungen: Hohes Risiko von Broadcast-Stürmen, begrenzte Skalierbarkeit (eingeschränkt durch die Domänengröße der Schicht 2).
Schicht 3 Spine-Leaf:
- Funktionen: Verwendet Layer-3-Routing-Protokolle (z. B. OSPF, BGP) zwischen Leaf- und Spine-Ebenen und leitet Daten über IP-Adressen weiter. Verwendet häufig ECMP (Equal-Cost Multi-Path Routing) zum Lastenausgleich.
- Anwendbare Szenarien: Große Rechenzentren, die eine hohe Skalierbarkeit und Netzwerkisolierung erfordern, wie beispielsweise Cloud-Computing-Umgebungen.
- Beispiel: Ein großes Rechenzentrum setzt 16 Leaf-Switches und 4 Spine-Switches ein. Jeder Leaf ist über 40-Gbit/s-Verbindungen mit allen Spine-Switches verbunden und nutzt BGP-Routing. Dadurch werden rund 1000 Server unterstützt. ECMP sorgt für eine gleichmäßige Verkehrsverteilung auf allen Spine-Verbindungen.
- Vorteile: Hohe Skalierbarkeit, unterstützt Netzwerksegmentierung (z. B. VXLAN-Segmentierung).
- Einschränkungen: Höhere Konfigurationskomplexität, erfordert Vertrautheit mit Routing-Protokollen.
Wesentliche Vorteile und Funktionen
- Hohe Skalierbarkeit: Erweitern Sie Ihr Netzwerk ganz einfach durch Hinzufügen von Leaf- oder Spine-Switches, ohne das Design neu zu gestalten. So müssen Sie beispielsweise einen Leaf-Switch einfach mit allen Spine-Switches verbinden.
- Geringe Latenz: Das flache Design reduziert Weiterleitungssprünge, wobei die Latenz typischerweise geringer ist als bei herkömmlichen dreistufigen Architekturen. Beispielsweise erfordert die Server-zu-Server-Kommunikation nur zwei Sprünge (Leaf → Spine → Leaf).
- Hohe Bandbreite: Mehrere Pfade bieten ausreichend Bandbreite für Szenarien mit hohem Datenverkehr. Beispielsweise können 4 Spine-Switches jedem Leaf eine Gesamt-Uplink-Bandbreite von 160 Gbit/s bieten.
- Hohe Redundanz: Das Multi-Spine-Design gewährleistet die Netzwerkkontinuität auch bei Ausfall einzelner Verbindungen oder Geräte. Fällt beispielsweise ein Spine-Switch aus, können andere den Datenverkehr weiterhin verarbeiten.
Beispiele: Spine-Leaf-Bereitstellungen in kleinen und großen Rechenzentren
- Kleines Rechenzentrum: Ein Startup-Unternehmen hat ein Spine-Leaf-Netzwerk mit vier Leaf-Switches und zwei Spine-Switches eingerichtet. Jeder Leaf ist über 4-Gbit/s-Verbindungen mit den Spine-Switches verbunden und unterstützt 2 Server. Das Layer-10-Design nutzt MLAG-Technologie und gewährleistet eine Latenz von unter 100 ms. Das Unternehmen betreibt hauptsächlich Webanwendungen mit geringem Datenverkehr, und die Architektur erfüllt die anfänglichen Erweiterungsanforderungen.
- Großes Rechenzentrum: Ein Cloud-Anbieter implementierte ein Layer-3-Spine-Leaf-Netzwerk mit 32 Leaf-Switches und acht Spine-Switches. Jedes Leaf-Netzwerk ist über 8-Gbit/s-Verbindungen mit den Spine-Switches verbunden und nutzt BGP-Routing. Damit werden 100 Server unterstützt. Diese Architektur unterstützt groß angelegte Virtualisierung (mittels VXLAN-Segmentierung), verbessert die Netzwerkleistung um 5000 % und reduziert die Latenz auf 30 ms.
Vergleich von Spine-Leaf und traditioneller Drei-Schichten-Architektur
Vergleich der Topologiestrukturen
Die folgende Tabelle vergleicht die Topologiestrukturen der beiden Architekturen:
Aspekt | Traditionelle Drei-Schichten-Architektur | Spine-Leaf-Architektur |
Struktur | Baumartig: Zugang (Blätter) → Aggregation (Zweige) → Kern (Stamm) | Gitterartig: Datensprünge zwischen Blättern über kürzeste Pfade |
Schichten | Drei Schichten (Kern, Aggregation, Zugriff) | Zwei Schichten (Rücken, Blatt) |
Konnektivität | Hierarchisch mit potenziellen Engpässen | Teilnetz für ausgewogene Leistung |
Die traditionelle dreistufige Architektur ähnelt einem Baum, bei dem Daten von Blättern (Zugriff) über Zweige (Aggregation) zum Stamm (Kern) fließen. Im Gegensatz dazu ähnelt Spine-Leaf einem Raster, das kürzeste Sprünge zwischen Blättern ermöglicht.
Leistungs- und Latenzanalyse
- Traditionelle Drei-Schichten-Architektur: Daten vom Zugriff zum Kern benötigen typischerweise 3–4 Hops, was zu einer höheren Latenz (ca. 2–5 ms) führt. Die Aggregationsschicht kann zum Engpass werden, insbesondere bei stark steigendem Ost-West-Verkehr. Beispielsweise kann die Migration virtueller Maschinen die Auslastung des Aggregationsports auf über 90 % erhöhen.
- Spine-Leaf: Daten von Leaf zu Spine benötigen nur 1–2 Hops bei geringer Latenz (ca. 0.5–1 ms). Das Multi-Spine-Design bietet ausreichend Bandbreite und vermeidet Engpässe. Beispielsweise verteilt ECMP den Datenverkehr gleichmäßig auf alle Spine-Verbindungen.
Beispiel: Bei einem Rechenzentrumstest wies die traditionelle Drei-Schichten-Architektur eine durchschnittliche Latenz von 3.2 ms auf und die Bandbreitenauslastung war in Spitzenzeiten auf 8 Gbit/s begrenzt. Spine-Leaf reduzierte die Latenz auf 0.8 ms und erhöhte die Bandbreite auf 40 Gbit/s, wodurch eine Leistungssteigerung von 75 % erreicht wurde.
Skalierbarkeit und Verwaltungskomplexität
- Traditionelle Drei-Schichten-Architektur: Erweiterungen erfordern die Anpassung von Aggregations- und Core-Konfigurationen, was komplexe Linkplanungen und Protokollanpassungen mit sich bringt. Beispielsweise kann das Hinzufügen eines neuen Access-Switches eine Neukonfiguration des Uplink-LACP (Link Aggregation Control Protocol) erforderlich machen. Die Komplexität der Verwaltung steigt mit zunehmender Skalierung deutlich an.
- Spine-Leaf: Die Erweiterung ist durch Hinzufügen von Leaf- oder Spine-Switches unkompliziert. Beispielsweise muss ein Leaf-Switch lediglich mit allen Spine-Switches verbunden und die BGP-Nachbarn aktualisiert werden. Die Verwaltung ist gering, da Protokolle wie BGP die Überwachung großer Netzwerke vereinfachen.
Fallstudie zum Rechenzentrum
Fallbeispiel: Ein E-Commerce-Unternehmen verwendete ursprünglich eine dreistufige Architektur mit 8 Access-Switches, 4 Aggregation-Switches und 2 Core-Switches, die 1000 Server unterstützten. Die Access-Layer nutzten Gigabit-Ports und die Aggregation war über 10-Gbit/s-Verbindungen mit dem Core verbunden. Mit dem Wachstum des Unternehmens verdoppelte sich die Serverzahl auf 2000 und der Datenverkehr stieg von 5 Gbit/s auf 20 Gbit/s. Engpässe bei der Aggregation-Bandbreite erhöhten die Latenz auf 4 ms, was sich auf Datenbankabfragen und Seitenladegeschwindigkeiten auswirkte und die Benutzerfreundlichkeit verschlechterte. Das Unternehmen wechselte zu Spine-Leaf mit 16 Leaf-Switches und 4 Spine-Switches unter Verwendung von Layer-3-BGP-Routing. Jeder Leaf war über 40-Gbit/s-Verbindungen mit Spine verbunden, wodurch die Gesamtbandbreite auf 160 Gbit/s erhöht wurde. Nach der Umstellung sank die Latenz auf 0.9 ms, die Bandbreitenauslastung stieg um 40 %,
Beziehung zwischen Full-Mesh-Netzwerken und Spine-Leaf
Definition und Merkmale von Full-Mesh-Netzwerken
Ein Full-Mesh-Netzwerk ist eine hochvernetzte Topologie, in der jedes Gerät direkt mit allen anderen verbunden ist. In einem Full-Mesh-Netzwerk mit 5 Knoten verfügt beispielsweise jeder Knoten über 4 Links, also insgesamt 10 Links.
Funktionen: Bietet die niedrigste Latenz (1 Hop) und höchste Redundanz, aber die Verkabelungs- und Wartungskosten steigen quadratisch mit der Geräteanzahl (N*(N-1)/2 Links).
Anwendbare Szenarien: Kleine Hochleistungsnetzwerke, wie z. B. Finanzhandelssysteme oder kleine Cluster.
Beispiel: Ein Handelsunternehmen setzte ein Full-Mesh-Netzwerk mit fünf Knoten und 5-Gbit/s-Verbindungen pro Knoten ein. Die Latenz lag bei nur 10 ms, die Verkabelungskosten waren jedoch hoch. Für die Erweiterung auf sechs Knoten waren fünf zusätzliche Verbindungen erforderlich, was die Komplexität deutlich erhöhte.
Partielles Mesh-Design in Spine-Leaf
Konnektivität: Jeder Leaf-Switch ist mit allen Spine-Switches verbunden und bildet so eine partielle Mesh-Topologie. Die Leaf-Switches sind nicht direkt miteinander verbunden, was den Verkabelungsaufwand reduziert. Beispielsweise benötigen 4 Leaves und 2 Spines nur 8 Links, im Vergleich zu 12 im Full-Mesh.
Vorteile: Gleicht Leistung und Kosten aus, ideal für mittlere bis große Rechenzentren.
Vergleich und Verbindung zwischen Full-Mesh und Spine-Leaf
Aspekt | Full-Mesh-Netzwerk | Spine-Leaf-Architektur |
Konnektivität | Vollständige Vernetzung (jedes Gerät mit jedem anderen) | Teilnetz (Blätter bis zu allen Stacheln) |
Latency | Niedrigster Wert (1 Sprung) | Niedrig (1–2 Sprünge) |
Skalierbarkeit | Schlecht (quadratisches Wachstum der Links) | Hoch (lineare Ausdehnung) |
Kosten | Hoher Verkabelungs- und Wartungsaufwand | Ausgeglichene Kosten |
Verbindung: Spine-Leaf übernimmt das Konzept der hohen Konnektivität von Full-Mesh, reduziert aber durch Layering die Komplexität. So fungiert beispielsweise die Spine-Schicht als zentraler Hub und gewährleistet eine effiziente Leaf-Kommunikation, ohne den Overhead von Full-Mesh zu verursachen. Beispiel: Das kleine Rechenzentrum eines Finanzunternehmens testete Full-Mesh mit 10 Switches. Dafür waren 9 Links pro Switch und insgesamt 45 Links erforderlich – hohe Verkabelungskosten und ein hoher Wartungsaufwand. Durch die Umstellung auf Spine-Leaf (5 Leaves, 2 Spines) wurden die Links auf 10 reduziert, die Latenz von 0.2 ms auf 0.6 ms erhöht, die Kosten jedoch um 50 % gesenkt und die Skalierbarkeit verbessert.
Synergistische Rolle von SDN in Spine-Leaf
Grundprinzipien von SDN
Software-Defined Networking (SDN) trennt die Steuerungsebene des Netzwerks von der Datenebene und ermöglicht so eine zentrale Verwaltung und dynamische Konfiguration:
- Kontrollebene: Wird von einem SDN-Controller (z. B. OpenFlow-Controller) gesteuert und verwaltet Netzwerkrichtlinien und Verkehrspfade. Er fungiert als „Gehirn“ des Netzwerks für die zentrale Entscheidungsfindung.
- Datenebene: Wird von Switches und Routern zur Datenweiterleitung ausgeführt. Sie dient als „Arm“ des Netzwerks zur Ausführung von Controller-Anweisungen.
In herkömmlichen Netzwerken führt beispielsweise jeder Switch unabhängig OSPF aus, um Pfade zu berechnen. In SDN berechnet und verteilt der Controller Routing-Tabellen zentral, wodurch die Gerätelogik vereinfacht wird.
Wie SDN die Spine-Leaf-Architektur verbessert
Die Kombination von SDN mit Spine-Leaf steigert die Netzwerkflexibilität und -effizienz erheblich:
- Dynamische Verkehrsoptimierung: Der SDN-Controller überwacht den Spine-Leaf-Verkehr in Echtzeit und passt die Pfade dynamisch an, um die Last auszugleichen. Ist beispielsweise eine Spine-Verbindung überlastet, kann der Controller den Verkehr auf andere Verbindungen umleiten.
- Automatisierte Konfiguration: SDN ermöglicht die schnelle Bereitstellung von VLANs, QoS-Richtlinien usw. und reduziert so den manuellen Einrichtungsaufwand. Beispielsweise dauert die Konfiguration von VXLAN für 100 Leaf-Switches nur wenige Minuten.
- Schnelle Fehlerbehebung: Bei einem Spine- oder Leaf-Ausfall wechselt SDN automatisch zu Backup-Pfaden. Fällt beispielsweise ein Spine aus, verteilt der Controller den Verkehr innerhalb von Sekunden neu.
Praktische Anwendungen von SDN in Rechenzentren
Fallbeispiel: Ein Cloud-Service-Provider integrierte einen SDN-Controller in sein Spine-Leaf-Rechenzentrum zur automatisierten Verkehrssteuerung. Das Setup umfasste 32 Leaves und 8 Spines und unterstützte 5000 Server. Während einer Verkehrsspitze erreichte eine Spine-Verbindung eine Auslastung von 90 %. SDN verteilte den Verkehr dynamisch neu, verhinderte so Staus und verbesserte die Leistung um 25 %. Die Netzwerkkonfigurationszeit verkürzte sich von Stunden auf Minuten, was die Bereitstellung neuer Dienste beschleunigte.
Zukunft von Spine-Leaf und Empfehlungen
Zukünftige Trends in der Vernetzung von Rechenzentren
Mit der rasanten Weiterentwicklung von Cloud Computing, KI und 5G werden Rechenzentrumsnetzwerke eine höhere Leistung und Flexibilität erfordern:
- Intelligenz: KI-gesteuertes Netzwerkmanagement prognostiziert Verkehrsmuster und optimiert die Leistung. Beispielsweise kann KI die Spine-Leaf-Lastverteilung basierend auf historischen Daten anpassen.
- Hohe Bandbreite: 400Gbps oder sogar 800Gbps Verbindungen werden zum Standard für Spine-Leaf. So haben Anbieter beispielsweise 800Gbps Spine-Switches im Jahr 2023.
- Tiefe Integration: Spine-Leaf wird enger mit SDN und NFV (Network Function Virtualization) verschmelzen. Beispielsweise kann NFV Firewall-Funktionen auf der Leaf-Ebene virtualisieren.
Integration von Spine-Leaf mit neuen Technologien
Zukünftige Spine-Leaf-Architekturen werden weitere Spitzentechnologien beinhalten:
- KI-Optimierung: Maschinelles Lernen zur Vorhersage von Netzwerkfehlern und zur präventiven Anpassung von Pfaden. Beispielsweise kann KI das Risiko einer Überlastung des Spine-Switches vorhersehen und den Verkehr im Voraus umleiten.
- Zero-Trust-Sicherheit: Kombiniert mit SDN für dynamische Sicherheitsrichtlinien zum Schutz von Rechenzentren. Beispielsweise kann jeder Leaf-Switch Datenverkehrsquellen basierend auf SDN-Richtlinien in Echtzeit überprüfen.
Zusammenfassung
Die Spine-Leaf-Architektur mit ihren abgeflachten, leistungsstarken und hochskalierbaren Funktionen hat die traditionelle Core-Aggregation-Access-Architektur als Eckpfeiler moderner Rechenzentren abgelöst. Durch die Optimierung der Hochkonnektivitätsideen von Full-Mesh-Netzwerken und die Nutzung der dynamischen Managementfunktionen von SDN bietet sie enorme Vorteile in Bezug auf Leistung, Flexibilität und Verwaltungseffizienz.
Ähnliche Produkte:
-
QSFP-DD-400G-SR8 400G QSFP-DD SR8 PAM4 850 nm 100 m optisches MTP / MPO OM3 FEC-Transceiver-Modul $149.00
-
QSFP-DD-400G-DR4 400G QSFP-DD DR4 PAM4 1310 nm 500 m MTP / MPO SMF FEC Optisches Transceiver-Modul $400.00
-
QSFP-DD-400G-SR4 QSFP-DD 400G SR4 PAM4 850 nm 100 m MTP/MPO-12 OM4 FEC Optisches Transceiver-Modul $450.00
-
QSFP-DD-400G-FR4 400G QSFP-DD FR4 PAM4 CWDM4 2 km LC SMF FEC Optisches Transceiver-Modul $500.00
-
QSFP-DD-400G-XDR4 400G QSFP-DD XDR4 PAM4 1310nm 2km MTP/MPO-12 SMF FEC Optisches Transceiver-Modul $580.00
-
QSFP-DD-400G-LR4 400G QSFP-DD LR4 PAM4 CWDM4 10 km LC SMF FEC Optisches Transceiver-Modul $600.00
-
QDD-4X100G-FR-Si QSFP-DD 4 x100G FR PAM4 1310 nm 2 km MTP/MPO-12 SMF FEC CMIS3.0 Optisches Transceivermodul für Siliziumphotonik $650.00
-
QDD-4X100G-FR-4Si QSFP-DD 4 x 100G FR PAM4 1310 nm 2 km MTP/MPO-12 SMF FEC CMIS4.0 Optisches Transceivermodul für Siliziumphotonik $750.00
-
QSFP-DD-400G-SR4.2 400 Gbit/s QSFP-DD SR4 BiDi PAM4 850 nm/910 nm 100 m/150 m OM4/OM5 MMF MPO-12 FEC Optisches Transceiver-Modul $900.00
-
Arista Q112-400G-SR4 kompatibles 400G QSFP112 SR4 PAM4 850 nm 100 m MTP/MPO-12 OM3 FEC optisches Transceiver-Modul $450.00
-
Cisco Q112-400G-DR4-kompatibles 400G NDR QSFP112 DR4 PAM4 1310 nm 500 m MPO-12 mit optischem FEC-Transceiver-Modul $650.00
-
OSFP-800G-DR8D-FLT 800G-DR8 OSFP Flat Top PAM4 1310 nm 500 m DOM Dual MTP/MPO-12 SMF Optisches Transceiver-Modul $1199.00
-
OSFP-800G-SR8D-FLT OSFP 8x100G SR8 Flat Top PAM4 850 nm 100 m DOM Dual MPO-12 MMF optisches Transceiver-Modul $650.00
-
OSFP-800G-SR8D OSFP 8x100G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Optisches Transceiver-Modul $650.00
-
OSFP-800G-DR8D 800G-DR8 OSFP PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Optisches Transceiver-Modul $850.00
-
OSFP-800G-2FR4L OSFP 2x400G FR4 PAM4 1310 nm 2 km DOM Dual Duplex LC SMF Optisches Transceiver-Modul $1200.00