Was sind die Unterschiede zwischen dem Core Switch und dem normalen Switch?

Ein Core-Switch ist keine Art von Switch, sondern ein Switch, der auf der Kernschicht (dem Backbone des Netzwerks) platziert ist.

Im Allgemeinen müssen große Unternehmensnetzwerke und Internetcafés Core-Switches kaufen, um starke Netzwerkerweiterungsfähigkeiten zum Schutz der ursprünglichen Investition zu erreichen. Wenn die Anzahl der Computer 50 erreicht, können diese Orte Core-Switches verwenden. Bei weniger als 50 Rechnern reicht ein Router. Der sogenannte Core-Switch ist für die Netzwerkarchitektur. Wenn es sich um ein kleines lokales Netzwerk mit mehreren Computern handelt, kann ein kleiner Switch mit 8 Ports als Core-Switch bezeichnet werden.

Unterschieds zwischen Core-Switch und gewöhnlichem Switch

  • Der Unterschied zwischen Ports

Die Anzahl der Standard-Switch-Ports beträgt im Allgemeinen 24–48, und die meisten Netzwerkports sind Gigabit-Ethernet- oder Fast-Ethernet-Ports. Die Hauptfunktion besteht darin, auf Benutzerdaten zuzugreifen oder einige Switch-Daten auf der Zugriffsebene zu aggregieren. Diese Art von Switch kann das einfache VLAN-Routing-Protokoll und einige einfache SNMP-Funktionen mit relativ geringer Backplane-Bandbreite konfigurieren.

  • Die Unterschieds zwischen dem Herstellen einer Verbindung oder dem Zugriff auf das Netzwerk

Der Teil des Netzwerks, der sich direkt mit der Netzwerkverbindung oder dem Zugriff der Benutzer befasst, wird normalerweise als Zugriffsschicht bezeichnet, und der Teil zwischen der Zugriffsschicht und der Kernschicht wird als Verteilungsschicht oder Aggregationsschicht bezeichnet. Der Zweck der Zugriffsschicht besteht darin, Endbenutzern die Verbindung zum Netzwerk zu ermöglichen, sodass der Zugriffsschicht-Switch die Eigenschaften niedriger Kosten und hoher Portdichte aufweist.

Der Aggregation-Layer-Switch ist der Aggregationspunkt mehrerer Access-Layer-Switches und muss in der Lage sein, den gesamten Datenverkehr von den Access-Layer-Geräten zu verarbeiten und Uplinks zum Core-Layer bereitzustellen. Daher haben die Switches der Aggregationsschicht eine höhere Leistung, weniger Schnittstellen und höhere Schaltraten.

Der Hauptteil des Netzwerks wird Kernschicht genannt. Der Hauptzweck der Kernschicht ist die Bereitstellung einer optimierten und zuverlässigen Backbone-Übertragungsstruktur durch Hochgeschwindigkeitsweiterleitung der Kommunikation. Daher hat die Core-Layer-Switch-Anwendung eine höhere Zuverlässigkeit, Leistung und einen höheren Durchsatz.

verschiedene Schichten des Netzwerks

Verschiedene Schichten des Netzwerks

Vorteile von Core-Switches

Im Vergleich zu gewöhnlichen Switches müssen Rechenzentrums-Switches die folgenden Eigenschaften aufweisen: großer Cache, hohe Kapazität, Virtualisierung, FCoE, Layer-2-TRILL-Technologie, Skalierbarkeit und Modulredundanz.

  • Große Cache-Technologie

Der Rechenzentrums-Switch hat die ausgehende Port-Caching-Methode des herkömmlichen Switches geändert. Es verwendet eine verteilte Cache-Architektur, und der Cache ist viel größer als der eines gewöhnlichen Switches. Die Cache-Kapazität kann mehr als 1 G erreichen, während der allgemeine Switch nur 2-4 m erreichen kann. Für jeden Port kann die Burst-Traffic-Cache-Kapazität unter der Bedingung von 200 Gigabit voller Leitungsgeschwindigkeit 10 ms erreichen, sodass der große Cache im Fall von Burst-Traffic immer noch null Paketverluste bei der Netzwerkweiterleitung gewährleisten kann, was gerade für a geeignet ist große Anzahl von Servern im Rechenzentrum und der Burst-Traffic.

  • Hochleistungsausrüstung

Der Netzwerkverkehr im Rechenzentrum hat die Eigenschaften von High-Density Application Scheduling und Surge Burst Buffering. Gewöhnliche Schalter können jedoch keine genaue Identifizierung und Steuerung von Diensten zum Zweck der Zusammenschaltung erreichen. Sie können auch keine schnelle Reaktion und keinen Paketverlust erreichen, sodass die Geschäftskontinuität nicht garantiert werden kann. Die Zuverlässigkeit des Systems hängt hauptsächlich von der Zuverlässigkeit der Ausrüstung ab.

Daher können gewöhnliche Switches die Anforderungen von Rechenzentren nicht erfüllen. Switches für Rechenzentren müssen Weiterleitungseigenschaften mit hoher Kapazität aufweisen und 10-Gigabit-Boards mit hoher Dichte unterstützen, d. h. 48-Gigabit-Boards mit 10 Ports. Für die Weiterleitung können Rechenzentrums-Switches nur die CLOS-Distributed-Switching-Architektur verwenden.

Darüber hinaus werden mit der Popularität von 40G und 100G 40G-Boards, die 8 Ports unterstützen, und 100G-Boards, die 4 Ports unterstützen, nach und nach im Handel erhältlich. Außerdem sind bereits 40G- und 100G-Boards für Rechenzentrums-Switches auf den Markt gekommen und erfüllen damit die Nachfrage nach High-Density-Anwendungen in Rechenzentren.

  • Virtualisierungs-Technologie

Die Netzwerkausrüstung im Rechenzentrum muss die Eigenschaften eines hohen Managements sowie einer hohen Sicherheit und Zuverlässigkeit aufweisen. Daher müssen auch die Switches im Rechenzentrum Virtualisierung unterstützen. Virtualisierung besteht darin, physische Ressourcen in logisch verwaltbare Ressourcen umzuwandeln, um die Barrieren der physischen Struktur zu überwinden.

Mithilfe der Virtualisierungstechnologie können mehrere Netzwerkgeräte einheitlich verwaltet werden. Dienste auf einem einzelnen Gerät können vollständig isoliert werden, was die Verwaltungskosten des Rechenzentrums um 40 % senken und die IT-Auslastung um etwa 25 % steigern kann.

Virtualisierungs-Technologie

Virtualisierungs-Technologie

  • TRILL-Technologie

Beim Aufbau eines Layer-XNUMX-Netzwerks im Rechenzentrum ist der ursprüngliche Standard das FTP-Protokoll. Aber es hat folgende Mängel:

- STP funktioniert durch Portblockierung, und alle redundanten Verbindungen leiten keine Daten weiter, was zu einer Verschwendung von Breitbandressourcen führt.

- Das Netzwerk hat nur einen Spanning Tree, und Datenpakete müssen die Root Bridge passieren, was die Weiterleitungseffizienz des gesamten Netzwerks beeinträchtigt.

Daher wird STP für den Ausbau supergroßer Rechenzentren nicht mehr geeignet sein. TRILL wird ins Leben gerufen, um diese Mängel von STP auszugleichen. Das TRILL-Protokoll kombiniert effektiv Layer-2-Konfiguration und -Flexibilität mit Layer-3-Konvergenz und -Skalierung. Das gesamte Netzwerk kann ohne Schleifen weitergeleitet werden, ohne dass eine Konfiguration auf der zweiten Schicht erforderlich ist. Die TRILL-Technologie ist eine grundlegende Layer-2-Funktion von Rechenzentrums-Switches, die in gewöhnlichen Switches nicht verfügbar ist.

  • FCoE-Technologie

Herkömmliche Rechenzentren verfügen oft über ein Datennetzwerk und ein Speichernetzwerk. Das Aufkommen der FCOE-Technologie macht Netzwerkkonvergenz möglich. FCoE ist eine Technologie, die Datenframes eines Speichernetzwerks zur Weiterleitung in Ethernet-Frames kapselt. Die Realisierung dieser Fusionstechnologie muss auf den Switches des Rechenzentrums erfolgen, gewöhnliche Switches verfügen in der Regel nicht über diese Funktionen.

Sehr wichtig sind auch Funktionen wie Link Aggregation, Redundancy, Stacking und Hot Backup, die in der Praxis die Performance, Effizienz und Stabilität von Core Switches bestimmen.

Linkaggregation

Link Aggregation ist die Kombination von zwei oder mehr Datenkanälen zu einem einzigen Kanal, der als logischer Link mit höherer Bandbreite erscheint. Link Aggregation wird im Allgemeinen verwendet, um ein oder mehrere Geräte mit hohen Bandbreitenanforderungen zu verbinden, z. B. Server oder Serverfarmen, die mit einem Backbone-Netzwerk verbunden sind. Es kann verwendet werden, um die Verbindungsbandbreite zu erweitern und eine höhere Verbindungszuverlässigkeit bereitzustellen.

Zum Beispiel hat das Unternehmen zwei Stockwerke, die verschiedene Geschäfte führen. Die Netzwerke auf den beiden Etagen waren ursprünglich getrennt, aber es ist unvermeidlich, dass dieselbe Firma interagiert. Zu diesem Zeitpunkt können wir das Netzwerk zwischen den beiden Stockwerken öffnen, damit die Abteilungen mit gegenseitiger Verbindung mit hoher Geschwindigkeit miteinander kommunizieren können. Wie nachfolgend dargestellt:

Abbildung 1: eine Eth-Trunk-Schnittstelle zur Verbindung von Switch A und Switch B

Eine Eth-Trunk-Schnittstelle zum Verbinden von Switch A und Switch B

Wie in der obigen Abbildung gezeigt, sind SwitchA und SwitchB über Ethernet-Verbindungen mit VLAN10- bzw. VLAN20-Netzwerken verbunden, und es gibt eine große Menge an Datenverkehr zwischen SwitchA und SwitchB.

Der Benutzer erwartet, dass zwischen SwitchA und SwitchB eine größere Verbindungsbandbreite bereitgestellt werden kann, damit dieselben VLANs miteinander kommunizieren können. Inzwischen erhoffen sich die Nutzer auch ein gewisses Maß an Redundanz, um die Zuverlässigkeit der Datenübertragung und Verbindungen zu gewährleisten.

Erstellen Sie eine Eth-Trunk-Schnittstelle und fügen Sie Mitgliedsschnittstellen hinzu, um die Verbindungsbandbreite zu erhöhen. Zwei Switches werden mit Eth-Trunk1 konfiguriert, und dann werden die Ports der drei Leitungen, die kommunizieren müssen, zu Eth-Trunk1 hinzugefügt, und der Port-Trunk wird so eingestellt, dass das entsprechende VLAN passieren kann. Auf diese Weise kann das Netzwerk auf den beiden Stockwerken normal kommunizieren.

Link-Redundanz

Um die Stabilität des Netzwerks aufrechtzuerhalten, werden in einer Netzwerkumgebung, die aus mehreren Switches besteht, einige Backup-Verbindungen verwendet, um die Effizienz und Stabilität des Netzwerks zu verbessern. Die Backup-Verbindungen werden hier auch als Backup-Links oder redundante Links bezeichnet.

Stapeln von Schaltern

Über proprietäre Stacking-Kabel verbunden, können mehrere Switches zu einem einzigen logischen Switch gestapelt werden. Alle Switches in diesem logischen Switch nutzen dieselben Konfigurations- und Routing-Informationen. Die Leistung eines logischen Switches wird nicht beeinträchtigt, wenn ein einzelner Switch hinzugefügt oder entfernt wird.

Zu den Arten von optischen Switch-Ports gehören SFP, 10G SFP+, 25G SFP28, 40G QSFP+, 100G QSFP28 usw. Wir müssen das richtige optische Modul auswählen, um es für den normalen Gebrauch in den Switch einzusetzen. Beispielsweise können SFP-Ports in optische SFP-Module eingefügt werden, und 10G-SFP+-Ports sind für optische 10G-Module. 100G QSFP28 Port muss in 100G QSFP28 optische Module eingefügt werden.

Wenn wir einen Switch mit einem elektrischen Port und einen Switch mit einem optischen Port verbinden möchten, können wir verwenden Kupfer-SFP. Es wird verwendet, um den optischen Port in einen elektrischen Port umzuwandeln, damit wir ein Netzwerkkabel verwenden können, um die beiden Switches zu verbinden.

Die gestapelten Schalter sind durch zwei Schleifen verbunden. Die Hardware des Switches ist für den Lastausgleich der Datenpakete auf den Dual Loops verantwortlich. Die Schleife fungiert als Backplane dieses großen logischen Switches. Wenn beide Loops normal funktionieren, beträgt die Übertragungsrate von Datenpaketen auf diesem logischen Switch 32 Gbit/s.

Wenn ein Datenrahmen übertragen werden muss, berechnet die Switch-Software, welche Schleife verfügbarer ist, und dann wird der Datenrahmen an diese Schleife gesendet. Wenn ein Stacking-Kabel ausfällt, erkennen die Switches an beiden Enden des ausgefallenen Kabels den Fehler und trennen die betroffene Schleife, während der logische Switch weiterhin in einem Einzelschleifenzustand mit einer Paketdurchsatzrate von 16 Gbit/s arbeiten kann. Die Switches sind in einer Daisy-Chain-Weise gestapelt. Siehe die folgende Abbildung für die Verbindungsmethode.

Abbildung 2: Die Switches sind in einer Daisy-Chain-Weise gestapelt

 Die Switches sind in einer Daisy-Chain-Weise gestapelt

Stacking erhöht die Stabilität von Switch-Ports und Bandbreite.

Hot-Backup (HSRP)

Der Core Switch ist der Kern und das Herz des gesamten Netzwerks. Kommt es zu einem fatalen Ausfall des Core-Switches, wird das lokale Netzwerk lahmgelegt, was zu unschätzbaren Verlusten führt. Daher sehen wir bei der Auswahl von Core-Switches oft, dass einige Core-Switches mit Funktionen wie Stacking oder Hot Backup ausgestattet sind.

Die Verwendung von Hot-Backup für Core-Switches ist eine unvermeidliche Wahl, um die Netzwerkzuverlässigkeit zu verbessern. Wenn ein Core-Switch überhaupt nicht arbeiten kann, werden alle seine Funktionen von einem anderen Backup-Router im System übernommen, bis der betreffende Router wieder normal funktioniert. Dies ist das Hot Standby Router Protocol (HSRP).

Voraussetzung für die Realisierung von HSRP ist, dass mehrere Core-Switches im System vorhanden sind und diese eine „Hot Backup Group“ bilden, die einen virtuellen Router bildet. Es ist immer nur ein Router in einer Gruppe aktiv und leitet Datenpakete weiter. Wenn der aktive Router ausfällt, wird ein Backup-Router ausgewählt, um den aktiven zu ersetzen, aber der Host im Netzwerk behandelt den Router als unverändert. Daher bleibt der Host verbunden und ist von dem Ausfall nicht betroffen, wodurch das Problem des Core-Switch-Switching besser gelöst wird.

Um den Datenverkehr im Netzwerk zu reduzieren, senden der aktive Core-Switch und der Backup-Core-Switch regelmäßig HSRP-Pakete, nachdem sie eingestellt wurden. Wenn der aktive Core-Switch ausfällt, übernimmt der Backup-Core-Switch die Funktion des aktiven Core-Switch. Wenn der Backup-Core-Switch ausfällt oder zum aktiven Core-Switch wird, wird ein anderer Core-Switch als Backup-Core-Switch ausgewählt.

Wenn die Leitung von einem Access-Layer-Switch zum Haupt-Core-Switch ausfällt, wird auf die Standby-Maschine umgeschaltet.

 

Szenario eins mit Ausfall der Datenverbindung

 Szenario eins mit Ausfall der Datenverbindung

Wenn die mit dem Core-Switch A verbundene Datenverbindung des Access-Layer-Switch 1 ausfällt, wird die Datenverbindung des Access-Layer-Switch 1 auf den Core-Switch B geschaltet, aber während der Umschaltperiode verliert der Access-Layer-Switch 1 sechs Datenpakete , wie oben gezeigt.

 

Szenario XNUMX eines Ausfalls der Datenverbindung

Szenario XNUMX eines Ausfalls der Datenverbindung

Beim Ausfall der Hauptverbindung zwischen Server und Coreswitch A (z. B. Leitung, Netzwerkkarte etc.) und beim Umschalten der Hauptnetzwerkkarte des Servers auf die Standby-Netzwerkkarte gehen sechs Datenpakete verloren. Aber wenn die Hauptverbindung wiederhergestellt ist, schaltet der Server automatisch von der Standby-Netzwerkkarte auf die Hauptnetzwerkkarte um, und Datenpakete gehen während dieses Wechsels nicht verloren.

Hinterlasse einen Kommentar

Nach oben scrollen