Aurora Networks® (ANS) und RUCKUS® Networks sind jetzt Vistance Networks
Die Migration zu 400G/800G: Teil II
Bisher haben wir in unserer Diskussion über die Migration auf 400G und darüber hinaus viel Boden behandelt. In Teil I haben wir die Markt- und technischen Treiber beschrieben, die Rechenzentren dazu bewegen, irgendwann Hochgeschwindigkeitsfunktionen zu übernehmen. Wir haben die Fortschritte bei den Transceiverformaten, Modulationsschemata und höherwertigen Switches, die von schnelleren ASICs angetrieben werden, angesprochen. Dann gibt es die Anschlussoptionen für die Zuweisung der zusätzlichen Bandbreite von den Oktalmodulen zur Portebene. Zu den Steckverbindern gehören herkömmliche parallele 8-, 12-, 16- und 24-Faser-Multi-Push-On (MPO)-Steckverbinder sowie neuere Duplex-LC-, SN-, MDC- und CS-Steckverbinder.
Aber Teil I erzählt nur die Hälfte der Geschichte. Während die Entwicklung von optischen 400G-Modulen und -Steckverbindern bereits in vollem Gange ist, haben Rechenzentrumsmanager in der Regel Schwierigkeiten, eine Infrastrukturverkabelungsstrategie zu definieren, die sowohl operativ als auch finanziell sinnvoll ist. Sie können es sich nicht leisten, es falsch zu machen. Die physikalische Schicht – Verkabelung und Konnektivität – ist der Klebstoff, der alles im Netzwerk zusammenhält. Sobald eine strukturierte Verkabelungsinfrastruktur installiert ist, kann der Austausch riskant und teuer sein. Es richtig zu machen, hängt zum großen Teil davon ab, die Standards genau zu beachten, die sich ebenfalls schnell entwickeln.
Es genügt zu sagen, dass die Entwicklung einer zukunftsfähigen Infrastruktur in der heutigen, schnelllebigen Rechenzentrumsumgebung wie der Versuch ist, Ihre Reifen zu wechseln, während Sie die Autobahn hinunterfliegen. Es erfordert Planung, Präzision und mehr als nur einen kleinen Einblick in die Zukunft. In Teil II werden wir versuchen, Ihnen die Informationen und zukunftsgerichtete Vision zu geben, die Sie benötigen, um eine standardbasierte Infrastruktur zu schaffen, die viel Spielraum für Wachstum bietet. Kommen wir dazu.
Möchten Sie offline lesen?
Laden Sie eine PDF-Version dieses Artikels herunter, um ihn später erneut zu lesen.
Bleiben Sie informiert!
Abonnieren Sie The Enterprise Source und erhalten Sie Updates, wenn neue Artikel veröffentlicht werden.
Verkabelung
Um ihre Kapazität zu erweitern, nutzen viele Rechenzentren eine Vielzahl bestehender und neuer Optionen. Dazu können herkömmliche Duplex- und neue parallele optische Anwendungen, vier- und acht-paarige Singlemode- und Multimode-Steckverbinder, WDM, gehören. Ziel ist eine erhöhte Kapazität und Effizienz. Die Herausforderung für viele besteht darin, einen Kurs zu erstellen, der von Ihrem bestehenden Zustand (oft mit einer sehr großen installierten Basis) zu etwas führt, das mit verschiedenen Netzwerktopologien, Steckverbindertypen und Verkabelungsmodulen zwei Schritte voraus sein könnte.
Um die zusätzliche Bandbreite bereitzustellen, die Rechenzentren benötigen, haben Netzwerkdesigner zwei Optionen: skalieren Sie die Netzwerkgeschwindigkeiten oder die Anzahl der Pfade (Bahnen), die zur Bereitstellung von Daten verwendet werden. Abbildung 1 veranschaulicht die Optionen zum Skalieren von Geschwindigkeiten (Optik) und zum Skalieren der Anzahl von Bahnen (Schalter).
Mit zunehmender Netzwerkgeschwindigkeit wird die Skalierung der Geschwindigkeit aus Kosten- und Stromperspektive schwierig und teuer und kann nur langsam implementiert werden. Es gibt auch andere Kompromisse. Wo sollten Sie also Ihre Ressourcen konzentrieren? Es ist eine schwierige Frage, denn um 400G- und 800G-Anwendungen zu unterstützen, müssen Rechenzentren nach oben und nach außen skalieren. Es gibt einige wichtige Entwicklungen, die dies erleichtern können.
Seit 2019 arbeitet die IEEE 802.3 Task Force an der Norm IEEE P802.3ck für 100G-Bahnen. Hoffentlich beenden sie den Standard in 2022. Die Spekulation über 200G-per-laneStandards lautet, dass sie bis zu 2025 bereit sein werden.
Abbildung 2: Zeitplan für IEEE P802.3ck ab August 2020
Viele Rechenzentrumsmanager sind der Meinung, dass der Zeitplan für IEEE P802.3ck die Branche hinter den Zeitplan stellen würde. Daher werden andere Optionen in Betracht gezogen. Eine Option (mehr Bahnen einsetzen [ausskalieren]) wurde bereits verwendet, um 400G zu erreichen. 800G wird mit dem elektrischen Standard 100G geliefert, wobei frühe Vorserienprodukte in 2021 geliefert werden. Um 1.6 T zu erreichen, könnten Rechenzentren bis zu 200G-Bahnen skalieren oder bis zu 16 Bahnen skalieren. Wir gehen die letztendliche Migration auf 1.6 T gegen Ende an.
Eine grundlegende Herausforderung beim Versuch, das nächste Geschwindigkeitsplateau zu erreichen, ist die Entscheidung, ob die Fasermenge erhöht oder Multiplexen verwendet wird, um die Anzahl der signaltragenden Wellenlängen pro Faser zu erhöhen. Auch hier ist es eine schwierige Frage.
Die Erfüllung der Anforderungen von 400G, 800G und höheren Durchsatzgeschwindigkeiten umfasst im Allgemeinen eine Kombination aus Wellenlängenmultiplexing (WDM), das über ein faserdichteres Netzwerk bereitgestellt wird. Das Hinzufügen von Wellenlängen ist einfacher als das Hinzufügen von Fasern. Wenn Sie jedoch zu wenig Fasern haben, müssen Sie möglicherweise mehr für die WDM-Technologie bezahlen, wenn günstigere Parallellösungen eine bessere Wahl wären. In Anbetracht der aktuellen Technologie-Roadmap werden 16-Faser-Infrastrukturen immer beliebter.
Der Kompromiss (physische Faser gegenüber virtueller Wellenlänge) basiert auf der Anwendung, wobei der wichtigste Einflussfaktor die Übergangskosten sind. Kapital- und Betriebskosten werden mit den Kosten für die Implementierung der erforderlichen physischen Glasfaserinfrastruktur verglichen. Da die elektrischen Geschwindigkeiten langsam und schwer zu erhöhen sind, scheint es wahrscheinlich, dass mehr Bahnen/Fasern/Wellenlängen benötigt werden.
Es ist interessant zu beachten, dass die relativen Kosten für schnelleres Fahren, während die Migration zu schnelleren Fahrspurgeschwindigkeiten einige spezifische kostenbezogene Probleme aufweist, tatsächlich sinken könnten, wie in Figur 3 dargestellt.
Abbildung 3: Kosten pro Gbit/s im Vergleich zur optischen Fahrspurgeschwindigkeit
WDM ist ein gängiger Ansatz für Rechenzentren, der verschiedene Wellenlängen des Lichts verwendet, um mehrere Datenpfade auf derselben Faser zu erstellen. Die beiden beliebten Singlemodus-WDM-Technologien sind Grobwellenlängen-Division-Multiplexing (CWDM) und dichte Wellenlängen-Division-Multiplexing (DWDM). CWDM ist für weniger Kanäle und Anwendungen mit kürzerer Reichweite optimiert, was es zu einer kostengünstigeren WDM-Option macht. DWDM ist optimiert, um so viel Kapazität wie möglich auf einer einzigen Faser zu erreichen – was es teuer und vor allem in Langstreckennetzwerken nützlich macht.
Beispiele für Ethernet-CWDM-Technologien sind CLR4, CWDM4 und FR4. Wie die „4“ nahelegen würde, verwenden diese Technologien vier Wellenlängen, von denen jede einen Datenkanal trägt (1270 nm, 1290 nm, 1310 m und 1330 nm). Dies gibt Rechenzentrumsbetreibern die Möglichkeit, einen höheren Durchsatz als Duplex-Glasfaserverbindungen zu unterstützen.
WDM-Optionen können mehr Wellenlängen bereitstellen (FR8 verwendet beispielsweise acht Wellenlängen). Die zusätzlichen Funktionen erfordern höherpreisige Optikmodule, aber Anwendungen mit längeren Entfernungen könnten die Kostenerhöhung rechtfertigen.
Es gibt zwei Hauptbereiche, in denen WDM voraussichtlich eine größere Rolle bei der Bewältigung der Kapazitätsknappheit spielen wird. Die erste befindet sich in den Kopplungsstrukturen, die in das Rechenzentrum gelangen. Aktuelle und aufkommende Anwendungen wie 5G, IoT und Machine-to-Machine (M2M)-Lernen treiben den Bedarf an schnellerer Konnektivität zwischen dem Rechenzentrum und externen Netzwerken voran. WDM wird verwendet, um die Kapazität pro Glasfaser zu vergrößern und die erhöhte Nachfrage nach Kapazität und Geschwindigkeit zu erfüllen, während vorhandene Glasfaserressourcen verwendet werden.
Der zweite Bereich, in dem WDM voraussichtlich eine wichtigere Rolle spielen wird, ist die Verbesserung der Konnektivität zwischen Netzwerk-Switches. Da Rechenzentren von der traditionellen dreistufigen Topologie zu netzartigen Blatt- und Wirbelsäulendesigns wechseln, ist die Server-Port-Dichte von entscheidender Bedeutung. Hochgeschwindigkeits-Glasfaser-Switch-Verbindungen unterstützen mehr Server-Traffic und sparen gleichzeitig mehr Ports für Serververbindungen. WDM erhöht die Kapazität der vorhandenen Duplex-Glasfasernetzwerke, ohne zusätzliche Glasfaserinfrastruktur hinzuzufügen – was potenziell Zeit und Geld spart. Greenfield-Installationen finden möglicherweise parallele Glasfaseroptionen noch kostengünstiger.
Multimode-Glasfaser unterstützt auch eine dritte WDM-basierte Technologie: Kurzwellenlängen-Division-Multiplexing (SWDM), das kurze (850 nm, 880 nm, 910 nm und 940 nm) Wellenlängen nutzt, die 30 nm voneinander entfernt sind. Im Rechenzentrum ist SWDM aufgrund seiner Kapazität und Kosteneffizienz bei Anwendungen mit kurzer Reichweite besonders attraktiv. SWDM, das auf MMF läuft, bietet die doppelte Geschwindigkeit eines WDM über einen bidirektionalen (BiDi) Duplex-Übertragungspfad.
Diese erweiterte Funktion bietet Rechenzentrumsmanagern einen attraktiven Upgrade-Pfad für ihre Duplex-Architekturen und ermöglicht schnellere Geschwindigkeiten über größere Entfernungen. Mit parallelen Fasern erreicht Multimode nun 100 m bei 400G; mit IEEE 802.3ck und 802.3db nähert sich die Fertigstellung, wird diese Geschwindigkeit auf 800G erhöht. Dieser Pfad wurde mit der OM5-Breitband-MMF-Verkabelung (WBMMF) optimiert, die WDM im Multimodus hervorragend unterstützt.
Weitere Informationen zu dieser Funktion finden Sie in unserem Artikel über OM5-Glasfaser.
Abbildung 4: Jährliche Portlieferungen von Ethernet SMF Optik, 2020
Abbildung 5: WBMMF überträgt gleichzeitig vier Wellenlängen
Historisch enthielt die Kernnetzwerkverkabelung 24, 72, 144 oder 288 Fasern. Auf diesen Ebenen könnten Rechenzentren diskrete Fasern zwischen dem Backbone und Switches oder Servern verwalten und dann Kabelbaugruppen verwenden, um sie für eine effiziente Installation aufzubrechen. Heutzutage werden Glasfaserkabel mit bis zu 20-mal mehr Glasfasersträngen eingesetzt – bis zu 6,912 Glasfasern pro Kabel. Der Anstieg wird zum großen Teil durch den Wechsel zu faserdichteren Netznetzen verursacht. Die Allround-Konnektivität zwischen Servern und Switches treibt auch die Entwicklung von Patchpanels mit hoher und ultrahoher Dichte voran, die wiederum kleinere Steckverbinder und Module mit Formfaktor erfordern.
Wo wird also die Verkabelung mit höherer Faserzahl eingesetzt? Ein Bereich sind die Data Center Interconnects (DCIs), in denen externe Anlagenkabel (deren Faserzahlen ebenfalls steigen) in das Rechenzentrum gelangen. DCI-Trunk-Verkabelung mit mehr als 3,000 Fasern ist häufig für die Verbindung von zwei Hyperscale-Einrichtungen, und Betreiber planen, diese Designkapazität in naher Zukunft zu verdoppeln.
Glasfasern mit höherer Anzahl werden auch dort verwendet, wo Backbone-Trunk-Kabel – zwischen den Kernschaltern und Meet-Me-Räumen – an Spinnschalter der Schrankreihe angeschlossen werden. Die steigenden Faserzahlen sind notwendig, stellen aber zwei große Herausforderungen dar. Erstens: Wie kann man es auf die schnellste und effizienteste Weise bereitstellen? Dazu gehört es, sie physisch auf die Spule zu legen, sie abzunehmen und zwischen den Punkten und durch die Bahnen zu laufen. Nach der Installation besteht die zweite Herausforderung darin, sie zu zerbrechen und an den Switches und Server-Racks zu verwalten. Um mehr zu erfahren: Anpassung an höhere Glasfaserzahlen im Rechenzentrum.
Abbildung 6: Beispiel für eine Verkabelung mit hoher Faserzahl
Abbildung 7: Rollbare Bandfaser
Der aktuelle Trend zwischen Rechenzentren und größeren Unternehmensnetzwerken geht in Richtung einer faserdichten Mesh-Architektur, die den Ost-West-Traffic optimiert (oftmals 10X Nord-Süd-Traffic) – immer noch eine grundlegende Ausrichtung, aber mit weniger Netzwerkschichten und oft mit Blick auf höhere Serveranbindungsgeschwindigkeiten. Das höchste Verbindungsvolumen befindet sich an der Edge, an der Server verbunden sind. Server stellen Gemeinkosten dar; daher gilt: Je weniger Switches (und je geringer ihre Latenz), desto besser.
Die meisten Wirbelsäulennetzwerke haben heute mehrere Schichten oder Ebenen. Die Größe des Rechenzentrums (Anzahl der anzuschließenden Server) bestimmt die Anzahl der Netzwerk-Switching-Stufen und die auch die maximale Anzahl der Blatt-Switches, die mit den Switches verbunden sind. Oft befindet sich die unterste Ebene oben auf Serverracks (ToR). Dieses Design war optimal für ältere kleinere Switches (Low-Radix-Switches) mit weniger Serveranbauten mit geringerer Geschwindigkeit. Ein ToR-Schalter würde ungefähr mit der Anzahl der Server in einem Rack übereinstimmen. Bei allen Verbindungen innerhalb eines Racks verwenden kurze, kostengünstige Verbindungen zwischen dem Server und dem ToR-Schalter oft kostengünstige Kupferverbindungskabel (DACs).
Der Wechsel zu Switches mit höheren Radix bedeutet, dass – auch wenn Sie immer noch denselben Switch mit 32 Ports verwenden – doppelt so viele Lanes (acht pro Switch-Port) zur Verfügung stehen, um Server anzuhängen. Dies bietet eine faszinierende Gelegenheit. Mit den höheren Radix-Switches können Sie jetzt zu einem Design migrieren, bei dem mehrere ToR-Blattschalter durch einen einzigen Tier-1-Blattschalter ersetzt werden. Dieser einzelne Switch kann jetzt etwa vier Serverschränke unterstützen. Strukturierte Verkabelung verbindet die reduzierte Anzahl an Server-Leaf-Switches, entweder End-of-Row (EoR) oder Middle-of-Row (MoR). Die Eliminierung der ToR-Switches bedeutet weniger Hops, geringere Anwendungslatenz und ein kostengünstigeres, effizienteres Design.
Abbildung 8: Höhere Radix-Schalter ermöglichen effizientere EoR/MoR-Designs
Die ideale Lösung für diese Anwendung erfordert, dass das Radix mit acht Anschlüssen pro Optikmodul gewartet wird. Die Aufrechterhaltung niedrigerer Kosten für diese Option wird durch die Verwendung weniger teurer MM-Optiken ermöglicht, sowie durch die neue 400GSR8-Anwendungsunterstützung für acht 50 Gb-Serververbindungen über 100 m OM4-Verkabelung. Mit Blick auf die Zukunft zielt die Entwicklung des 802.3db-Standards darauf ab, die Fahrspurgeschwindigkeit über dieselbe MMF-Infrastruktur auf 100 Gb zu verdoppeln1. Dies ist ideal für KI/ML-Pods mit höherer Dichte, die absolut viel höhere Servernetzwerkgeschwindigkeiten erfordern, aber keine längeren Netzwerkverbindungen benötigen, die eine teurere SM-Optik erfordern würden.
Als OM4 im Jahr 2009 auf den Markt kam, war OM3 der am Markt bevorzugte Fasertyp, aber nur wenige waren bereit, die neue OM4-Technologie zu nutzen. Erst durch die Fortschritte in der Ethernet-Technologie konnte die Reichweite von OM3 auf 70 Meter reduziert OM4 werden. Heute ist OM4 der bevorzugte Fasertyp, aber die Ethernet-Technologie entwickelt sich wieder weiter – was zu OM5 führt.
OM5 Glasfaser bietet zwei Hauptvorteile gegenüber OM3 und OM4. Erstens ist seine Dämpfung (3 dB/km) niedriger als die von OM3 und OM4 (3.5 dB/km). Zweitens ist die Spezifikation der effektiven modalen Bandbreite (EMB) für OM3 und OM4 auf 850 nm begrenzt, während sich die EMB für OM5 von 850 nm bis 953 nm erstreckt. Das erweiterte EMB-Fenster macht OM5 ideal für SWDM, das mehrere Datenströme auf mehreren Wellenlängen über eine einzige Faser überträgt. Diese Funktion macht OM5 auch zu einem wichtigen Wegbereiter von 400GBase-SR4.2 – und zu einem wichtigen Bestandteil einer 400G-Migrationsstrategie, da sie erweiterte Reichweiten von bis zu 150 m ermöglicht.
Einen tieferen Einblick in OM5 und die Optik, die zur Nutzung ihrer Vorteile verwendet wird, finden Sie im MMF-Kapitel in The Enterprise Source.
Abbildung 9: Entwicklung der MMF-Klassen
Quelle: MMF, Fact File, CommScope, 2021
Singlemode- und Multimode-Infrastruktur ergänzen verschiedene Anwendungen im Rechenzentrum. Die richtige Mischung von Anwendungen zu finden, optimiert Ihre Kosten für die optischen Links. Es ist jedoch schwierig, es richtig zu machen, da die Kosten und Fähigkeiten der einzelnen Medien steigen. Lassen Sie uns die Elemente untersuchen, die bei dieser Entscheidung zu berücksichtigen sind.
Distanzen verknüpfen
Rechenzentren benötigen im Allgemeinen eine große Anzahl von Netzwerkverbindungen mit relativ kurzen Entfernungen. Mit „kurz“ meinen wir in der Regel weniger als 100 m. Im Gegensatz dazu ist die mittlere Reichweite für die meisten großen Rechenzentren in der Regel als 500 m definiert. Langreichweite Entfernungen, wie sie z. B. auf einem Campus oder in einem sehr großen Rechenzentrum zu finden sind, betragen in der Regel 2 km oder mehr.
Singlemode wird mit seinen Langstreckenfähigkeiten und dem Versprechen „unbegrenzter“ Bandbreite häufig in Hyperscale-Rechenzentren verwendet. Genauer gesagt wird es an den Eingangseinrichtungen verwendet, um DCI-Verbindungen von U-Bahn-/Wide Area-Netzwerken zu beenden. Tatsächlich sind viele Optionen mit hoher Geschwindigkeit und großer Reichweite nur im Singlemodus verfügbar.
Abbildung 10: Anatomie von Multimode und SMF
Quelle: MMF, Fact File, CommScope, 2021
Volumen der Links
Jede Diskussion über Verbindungsvolumina im Rechenzentrum muss mit den allgegenwärtigen Servern beginnen – den zahlreichsten Elementen im Netzwerk. In den heutigen Konfigurationen werden Server jetzt mit 100G und höher angeschlossen. Der Glasfaser-Anwendungsfall für diese Aufsätze beinhaltet kostengünstigere Multimode-VCSEL-basierte Optiken, die an beiden Enden der Verbindung implementiert werden müssen. Angesichts der schiere Anzahl an Servern in einem Rechenzentrum mittlerer Größe macht die kombinierte Anzahl an erforderlichen optischen Ports diese Anwendung sehr kostensensibel.
Wenn Sie jedoch zu höheren Netzwerkebenen wechseln, nimmt die Anzahl der Fasern aufgrund des Radix der Switches und anderer architektonischer Überlegungen schnell ab. Darüber hinaus überschreiten die Abstände oft die 100 m kurze Reichweitengrenze, die Multimode auferlegt wird – was Singlemode-Technologie zur einzigen praktikablen Wahl macht.
Die gute Nachricht ist, dass der Preis der steckbaren Singlemode-Optik weiter sinkt. Infolgedessen wird 100G-Ethernet einen größeren Anteil am Markt für Switch-Ports von Rechenzentren erfassen. Aber das Gespräch über Übertragungsarten muss weit über die Kosten der steckbaren Optik hinausgehen. Sie muss auch eine Analyse der gesamten Kanalkosten sowie des erwarteten Wachstums des Rechenzentrums und seiner Migrations-Roadmap enthalten. Berücksichtigen Sie die folgenden Probleme, bevor Sie eine Entscheidung treffen.
Netzwerk-Topologie: Einige Rechenzentren verfügen möglicherweise über mehr als 100,000 Server, während andere nur einige haben. Einige verwenden eine zentralisierte Platzierung von Netzwerkgeräten, während andere Netzwerkgeräte im gesamten Rechenzentrum verteilen. Diese Designanforderungen und Auswahlmöglichkeiten bestimmen die Anzahl der Netzwerkverbindungen und die Distanz, die die Netzwerkverbindungen unterstützen müssen.
Gesamte Kanalkosten: Beim Vergleich der Verbindungskosten zwischen Glasfasertypen werden die Kosten für die gesamte Verbindung – Sender, Trunks und Patchkabel – bewertet. Es wurden verschiedene Kalkulationsmodelle entwickelt, um die relativen Kosten verschiedener Netzwerkverbindungstypen zu vergleichen. Wenn Sie beispielsweise zwischen 100G CWDM4 und 100G PSM4 wählen, tendiert eine längere durchschnittliche Verbindungslänge dazu, die Duplex-Option zu bevorzugen. Eine Brownfield-Installation verfügt jedoch möglicherweise nicht über genügend Glasfaser, um PSM4-Verbindungen zu unterstützen.
Andere Überlegungen:Unterschiede bei Installation und Wartung können die Verwendung von MMF begünstigen. Zu den wichtigsten Überlegungen gehören:
- Empfindlichkeit gegenüber Staub/Schmutz: Ein größerer Faserkern ist weniger empfindlich gegenüber Verunreinigungen. Dies ist wichtig für die Konnektivität von Servern mit hohem Volumen.
- Verbindungsgeschwindigkeiten: MMF arbeitet derzeit mit einer Höchstgeschwindigkeit von 100G pro Wellenlänge.
- Lebenszyklus und Stabilität der Infrastruktur – wie schnell muss das Rechenzentrum die Kapazität erhöhen?
Abbildung 11: 100G Verbindungskosten im Vergleich zu SR4, 2X TRx Trunk, 2X 3 m Kabel
Die Kapazität des Rechenzentrums baut auf der physikalischen Glasfaserverkabelung auf, die sich ständig an neue Optiken anpassen muss, um die Geschwindigkeit und Effizienz der Datenübertragung zu erhöhen, indem so viele Datensignale wie möglich erhalten bleiben. Glasfaserkabel und Verbindungen verlieren eine bestimmte Menge an Signal (Physikgesetze), aber ihre Leistung hat sich weiter verbessert. Heutzutage sind Komponenten mit ultraniedrigem Verlust (ULL) so konzipiert, dass sie die Industriestandardgrenzen überschreiten und Unterstützung für die Weiterentwicklung von optischen Anwendungen mit vorkonfektionierten Verkabelungssystemen bieten. Aber was bedeutet „Ultra-geringer Verlust“?
Es ist eine häufige Behauptung, dass vorkonfektionierte Systeme eine Leistung mit extrem geringem Verlust aufweisen. Aber ohne ULL-Standard, wie kann Leistung verglichen werden? Mit anderen Worten: Wenn Sie für ULL-Leistung bezahlen, woher wissen Sie, dass Sie den Wert Ihres Geldes erhalten?
In den vergangenen Jahren führte die Bandbreitenentwicklung von Ethernet- und Fiber Channel-Anwendungen zu einer enormen Reduzierung der Kanalverlustbudgets und der Kanallänge. Tabelle 1 zeigt, dass die Anforderungen an die Einfügungsdämpfung (IL) für die Kabelkanäle sowohl für Multimodus- als auch für Singlemodus-Kanäle immer strenger werden. Herkömmlicherweise werden die optischen Leistungsparameter von vorkonfektionierten MPO-Trunks und MPO/LC-Kassetten in Bezug auf die Einschubdämpfung (IL) und die Rückflussdämpfung (RL) der Kassetten in dB (einschließlich des Trunk-Anschlusses) ausgedrückt. Derzeit beanspruchen die leistungsstärksten Systeme auf dem Markt eine IL-Leistung von 0,35 dB.
Tabelle 1: Einfügungsdämpfungsanforderungen für Multimode- und Singlemode-Kanäle
Diese Leistungsdaten basieren auf der in Abbildung 12 gezeigten Konfiguration, die für eine 100GBase-SR4Anwendung unter Verwendung von Kabeldämpfung gemäß internationalen Normen entwickelt wurde.
Abbildung 12: Standard-Dämpfung für eine Kanalkonfiguration für eine 100GBase-SR4Anwendung
Das obige Beispiel basiert auf einer Konfiguration mit vier Kassetten, aber was ist, wenn der Kanal mehr als vier Kassetten benötigt? Je mehr Anschlüsse im Kanal vorhanden sind, desto geringer ist in der Regel der Rückflussverlust des Kanals. Im obigen Fall muss das RL über 12 dB liegen, damit der optische Sender-Empfänger ordnungsgemäß funktioniert. Basierend auf dem RL pro Anschluss gemäß ISO/IEC 11801-1 Ausgabe 3 muss jeder Anschluss mindestens RL von 20 dB haben. Jede Kassette in einem vorkonfektionierten System hat zwei Anschlüsse (hinten und vorne). Unter Verwendung der Kanalkonfiguration in Abbildung 12 und der RL-Anforderung in ISO/IEC 11801-1 ed.3 fällt das RL des Kanals nach der dritten Kassette unter den Schwellenwert von 20 dB RL. Dies ist in Abbildung 13 zu sehen.
Diese Beobachtungen zeigen, dass Überlegungen zur optischen Leistung sowohl IL als auch RL umfassen müssen, um die Funktion der Anwendung sicherzustellen. SYSTIMAX® ULL-Lösungen von CommScope gehen noch viel weiter.
- Maximale Designflexibilität durch Kanäle mit sechs Kassetten
- Verlängerte Kanallänge für weniger als sechs Kassetten
- Tool für Design- und Testunterstützung
- Anwendungsgewährleistung
Abbildung 13: Gesamt-RL von X Kassettenanzahl
SYSTIMAX ULL-Lösungen kombinieren herausragende optische Leistung mit statistischen Ansätzen, die eine echte Leistung mit extrem geringem Verlust sowohl für Il als auch für RL gewährleisten.
Der Fiber Performance Calculator von CommScope kann verwendet werden, um Kabelkanäle zu entwerfen und die Funktion von Anwendungen zu überprüfen, einschließlich ihrer maximalen Verbindungslänge.
Die folgende Konfiguration zeigt an, dass selbst bei sechs Kassetten in Folge die Kanallänge die Standard-Anwendungslängen überschreitet (siehe markierte Anwendungen).
CommScope steht für die Leistung unserer Produkte und bietet Garantiesicherheit für viele unterstützte optische Anwendungen. Das SYSTIMAX Fiber Performance Calculator Design-Tool und die Richtlinien zur Anwendungsunterstützung sind spezifisch für die SYSTIMAX Application Assurance.
Gemäß den Bedingungen der 25-Year und Anwendungsgarantie von CommScope („Systemgarantie“) enthält die SYSTIMAX-Systemspezifikation eine Anwendungsgarantie, die garantiert, dass die vorgesehenen Kabel- und optischen Anwendungen die darin festgelegten Leistungsspezifikationen in Übereinstimmung mit den SYSTIMAX-Leistungsspezifikationen erfüllen.
Die Systemgarantie und SYSTIMAX-Spezifikationen enthalten Einzelheiten zu den Bedingungen unserer Systemgarantie und SYSTIMAX Application Assurance. Die aktuell veröffentlichte erweiterte Produkt25-Year ist hier verfügbar.
Die aktuelle SYSTIMAX Systemspezifikation und Anwendungssicherung finden Sie unter SYSTIMAX Anwendungssicherung.
Weitere Ressourcen:
Der aktuelle Trend zu regionalen Rechenzentren-Clustern treibt die Notwendigkeit von DCI-Verbindungen mit höherer Kapazität und niedrigeren Kosten voran. Neue IEEE-Standards (siehe Abschnitt „Standards“ unten) werden den Weg für kostengünstige Plug-and-Play-Optionen mit Punkt-zu-Punkt-Bereitstellungen ebnen, aber Rechenzentrumsbetreiber müssen schwierige Entscheidungen bezüglich kohärenter versus direkter Erkennung, Modulationsschemata und der Verwaltung wachsender Faserzahlen treffen.
Weitere Informationen zu diesem Thema finden Sie in einem kommenden Artikel.
Kombination der vier Säulen für 400G/800G und mehr
Die vier Säulen der Rechenzentrumsinfrastruktur – Portdichte, Transceiver, Steckverbinder und Verkabelung – bieten eine logische Möglichkeit, die Kernkomponenten anzuzeigen, die für die Unterstützung von 400G und darüber hinaus erforderlich sind. Innerhalb jeder Säule gibt es eine Vielzahl von Optionen. Die Herausforderung für Netzbetreiber besteht darin, die Vor- und Nachteile der einzelnen Optionen zu verstehen und gleichzeitig die Beziehung zwischen den vier Säulen zu erkennen. Eine Änderung der Verkabelung wirkt sich höchstwahrscheinlich auf die richtige Auswahl von Transceivern, Portkonfigurationen und Anschlüssen aus. Diejenigen, die die Netzwerke der Zukunft gestalten und verwalten, müssen gleichzeitig im Mikro und im Makro leben. Im Folgenden finden Sie Beispiele dafür, wo dies geschieht.
In Greenfield-Projekten haben Netzwerk- und Anlagendesigner den Luxus (und die Herausforderung), Infrastrukturen mit höherer Geschwindigkeit zu schaffen, die ab dem ersten Tag mit 400G, 800G oder sogar 1.6 T auf den Boden gelangen können. Was genau erfordert das? Nachfolgend finden Sie einige Trends und Erkenntnisse, die Sie bei der Entwicklung einer Infrastruktur mit höherer Geschwindigkeit von Grund auf berücksichtigen sollten.
Portdichten: Bei Anwendungen mit Blatt-Wirbelsäulen-Switch bevorzugt der Markt die höchste Radix (Anzahl der Ports) pro Switch. Um das effizienteste Design zu erreichen, minimieren Netzwerke die Anzahl der Switch-Fabric-Stufen (flach). Neuere ASICs unterstützen mehr E/As, aber mit steigender Geschwindigkeit gibt es einen Kompromiss zwischen der Spurrate und Radix. Radix ist jedoch der Schlüssel, um die Anzahl der Switches für eine bestimmte Netzwerkgröße zu reduzieren. Wie in Abbildung 14 zu sehen ist, enthält ein typisches Hyperscale-Rechenzentrum etwa 100,000 Server; ein Netzwerk dieser Größe kann mit nur zwei Netzwerk-Switches unterstützt werden. Dies ist zum Teil auf sich schnell entwickelnde ASICs und Module zurückzuführen, die höhere Radix-Switches und Netzwerke mit höherer Kapazität ermöglichen.
Abbildung 14: Höhere Radix-Werte können dazu beitragen, die Anzahl der Schalter zu reduzieren
Transceiver-Technologien: Wie in Teil I besprochen, sind die beiden dominanten Formfaktoren für 400G QSFP-DD und OSFP. Beide unterstützen bis zu 32 Ports in einem One-Rack-Unit (1RU)-Switch und akzeptieren LC-, MPO-, SN- (OSPF) und CS-Anschlüsse. Die Hauptunterschiede sind, dass der QSFP-DD abwärtskompatibel mit QSFP+ und QSFP28 ist, während der OSFP einen Adapter für die Abwärtskompatibilität benötigt. Die OSFP-Transceiver, die auch für 800G ausgelegt sind, können auch eine längere Haltbarkeit aufweisen. Jede ASIC-E/A muss über den Transceiver einem einzelnen optischen Port zugeordnet werden, um das Switch-Radix beizubehalten. Die Verkabelungsinfrastruktur muss diese optischen Ports auch Server-Links zuordnen.
Verkabelung und Architektur: Kabelpfade müssen sehr hohe Glasfaserkabel berücksichtigen, insbesondere im Backbone-Netzwerk und in den Rechenzentrumsverbindungen. Durch die Nutzung neuer Verkabelungsdesigns mit reduzierten Stellflächen – wie z. B. 200 μm und rollbare Bandfasern – werden Kabelführungs- und Biegeradiusprobleme minimiert. Unabhängig von der Größe müssen sich Greenfield-Rechenzentren auf Cloud-Architekturen vorbereiten. Dies beinhaltet einen optimierten direkten Pfad für die Server-zu-Server-Kommunikation unter Verwendung einer „Leaf-Spine“-Architektur. Dieses Design ermöglicht es Anwendungen auf jedem Rechen- und Speichergerät, auf vorhersehbare, skalierbare Weise zusammenzuarbeiten, unabhängig von ihrem physischen Standort im Rechenzentrum. Die Fabric verfügt über eine inhärente Redundanz, da mehrere Switching-Ressourcen im gesamten Rechenzentrum verteilt sind, um eine bessere Anwendungsverfügbarkeit zu gewährleisten. Die gesamte Fabric-Bandbreite kann berechnet werden, indem die Anzahl der Edge-Ports mit der Geschwindigkeit der Edge-Ports multipliziert wird – oder die Anzahl der Wirbelsäulenports mit der Geschwindigkeit der Wirbelsäulenports. Wenn es keine Überabonnement gibt, sind diese beiden Zahlen gleich.
Viele bestehende Installationen wurden mit MPO-Trunks mit acht, 12 oder 24 Glasfasern als verlustarm oder extrem verlustarm konzipiert. 400G- und 800G-Anwendungen werden jedoch mit 16 Fasern zum Transceiver optimiert. Während 16-Faser-basierte Designs die Migration und Ausbrüche für Greenfield-Anwendungen vereinfachen, können bestehende Installationen mit acht-, 12- oder 24-Faser-Untereinheiten die schnelleren Oktalanwendungen unterstützen.
Einige Dinge, die bei der Entscheidung, welche Konfiguration am sinnvollsten ist, zu berücksichtigen sind: Kanalverlustleistung, Glasfaserzählungen zwischen Endpunkten, Glasfasertyp (SM, OM4, OM5), Polarität, MPO-Leitungskabellängen und Geschlecht.
Die Kanalleistung, einschließlich IL und RL, sollte mithilfe von tragbaren Testgeräten getestet und dokumentiert werden, um die SM- und MM-Anwendungsanforderungen zu erfüllen. Eine CommScope-Anwendung wie der SYSTIMAX Fiber Performance Calculator kann ausgeführt werden, um die Kanalleistung als Ausgangspunkt zu überprüfen.
Seit den 1990er-Jahren gibt es 12 Glasfaserkabel für Untereinheiten. Damals waren sie effektiv für Duplexanwendungen. Als die Branche von Duplex- zu Multi-Pair-Anwendungen mit MPO-Anschlüssen wechselte, wurden 8-, 24- und (zuletzt) 16-Faser-Untereinheiten hinzugefügt. Dies sind willkommene Ergänzungen, da die Unterstützung für die neuen Oktalanwendungen eine ausreichende Anzahl an Glasfasern zwischen den Endpunkten erfordert. In einigen Fällen können Rechenzentren ihre vorhandene Verkabelung nutzen, um die neuen Anforderungen zu erfüllen, vorausgesetzt, die aggregierte Faserzahl im Kanal zwischen den Standorten ermöglicht den Übergang. Wenn die Faseranzahl zwischen den Standorten mit 16- oder 8-Faser-Gruppierungen übereinstimmt, kann der Übergang zu den Netzwerkanschlüssen mithilfe von Breakout-Array-Kabeln erfolgen.
Beispielsweise kann ein verifizierter Kanal, der aus 144 Fasern in einem Trunk-Kabel zwischen Platten mit LC-Duplex-Ports als Frontschnittstelle besteht, mit einem Array-Kabel von acht LC-Duplex-Steckverbindern zu MPO16 enden (Abbildung 15). Der 144-Faser-Kanal kann bis zu neun dieser Array-Kabel in einer RU unterstützen. Zusätzliche Array-Optionen, die diese Glasfaserkanäle verwalten, können auch die Konnektivität ermöglichen. In ähnlicher Weise können die 16-Faser-Ports am fernen Ende zu Duplex-Server-Ports ausbrechen.
Abbildung 15: 16-Faser-Switch-Ports, die über einen herkömmlichen Kanal verbunden sind
Als Beispiel zeigt Figur 16 einen verifizierten Kanal, der aus 144 Fasern in einem Trunk-Kabel zwischen Platten mit LC-Duplex-Ports als vordere Schnittstelle besteht.
Abbildung 16: 16-Faser-Switch-Ports auf Duplex-Server-Ports aufgeteilt
Es gibt auch 400G- und 800G-Anwendungen, die acht Fahrspuren von 50G oder 100G in 2 x 4 Fahrspuranwendungen für 200G- oder 400G-Bereitstellungen aufteilen. Für diese Anwendungen können die Verbindungen für ältere MPO8-Amtsleitungen MPO16 zu 2x MPO8-Array-Baugruppen verwenden, wie in Abbildung 17 dargestellt.
Abbildung 17: 2x MPO8-to-MPO16Array
Eine weitere Möglichkeit, Konvertierungsbaugruppen zu ermöglichen, vorhandene Glasfaser vollständig zu nutzen, ist das Beenden der Stammkabel zu Inline-Adapterpaketen. Dies ist effizient für die Verwendung vorhandener Fasern, kann aber Herausforderungen beim Kabelmanagement darstellen. Wenn sie nicht korrekt implementiert werden, können Breakout-Längen und Port-Positionen die Strangkapazität verlegen. Stellen Sie sicher, dass die Ports lokalisiert sind und sich in einem Rack oder Schrank befinden, um eine vollständige Auslastung zu ermöglichen.
Achtung bei angehefteten und nicht angehefteten Anschlüssen: Da ein MPO-basierter Sender-Empfänger interne Ausrichtungsstifte hat, muss seine Verbindungsausrüstung oder das Patchkabel auf der Ausrüstungsseite nicht verpinnt sein. Wenn MPO-Umwandlungskabel verwendet werden, verwenden Sie einen Adapter, um das gegenüberliegende Ende des Kabels mit dem Stammkabel zu verbinden. Wenn auch die Leitungskabelanschlüsse angesteckt sind, müssen die Umwandlerkabel nicht angesteckt oder nicht angesteckt werden. Wenn die Stammkabel nicht verstiftet sind, muss das Gegenende des Gerätekabels verstiftet werden. Techniker müssen sicherstellen, dass das richtige Ende an jeder Seite angeschlossen ist, um mögliche Schäden an der Optik durch ein festgestecktes Kabel zu vermeiden.
Ein Wort zur Polarität: Während die Branche aufgrund ihrer Einfachheit bei der Duplex- und Multifaser-Konnektivität auf Methode-B-Polarität umgestellt hat, werden andere alte Polaritätsschemata weiterhin in Rechenzentren eingesetzt. Wenn die Leistung und die Glasfaserzahlen des installierten Kanals die Anforderungen der Anwendung erfüllen, können kundenspezifische Übergangskabel zum Anschluss an Hochgeschwindigkeits-Transceiver verwendet werden.
Weitere Ressourcen:
Bestellhandbuch: Propel glasfaser- und konnektivitätsplattform
802.3bs
Das IEEE hat mehrere neue Standards eingeführt, die 400G-Anwendungen ermöglichen. Es wurde eine wichtige Entscheidung getroffen, ein neues Modulationsschema einzuführen, PAM4. PAM4 ermöglicht es elektrischen und optischen Fahrspuren, zu höheren Geschwindigkeiten zu gelangen, als mit der herkömmlichen NRZ-Modulation praktisch möglich waren. PAM4 verdoppelt effektiv die Fahrspurraten – 25 G bis 50G – sowie die Anzahl der Fahrspuren – vier bis acht. Infolgedessen sind optische Transceiver der Serie 400G jetzt standardisiert.
802,3 cm
Dieser Standard, der sich mit 400G über MMF befasst, führte Unterstützung für vier Paare (400GBASE-SR4.2) und acht Paare (400GBASE-SR8) ein. Beide Anwendungen verwenden VCSELs, die weiterhin eine höhere Bandbreite bieten und gleichzeitig im Vergleich zu SMF-Alternativen geringere Kosten und Energiedesigns beibehalten. SR4.2 und SR8 verwenden außerdem die 100 m kurzen MMF-Transceiver für hochvolumige Hochgeschwindigkeitsserververbindungen. Dies ist bemerkenswert, da Kupferkabel mit steigender Geschwindigkeit kürzer werden müssen. Gleichzeitig helfen höhere Radix-Funktionen, Netzwerkschichten zu reduzieren, indem TOR-Switches eliminiert werden. Eine kostengünstige MMF-Optik-Server-Verbindung unterstützt dieses Design und spart Geld.
802.3ck (Entwurf)
Mit der Einführung von PAM4 ist ein nächster Schritt zur Unterstützung höherer Geschwindigkeiten die Erhöhung der Spurrate der elektrischen und optischen Signale auf 100G. Im Fokus steht der ausstehende 802.3ck Standard. Wenn dieser Standard abgeschlossen ist, wirkt er sich positiv auf die Kosten pro Bit für 400G-Anwendungen aus und ermöglicht 800G-Module (die 800G-MAC-Rate wird über die IEEE Beyond 400G-Studiengruppe vorgeschlagen). Dieser Standard steht kurz vor dem Abschluss und sollte in 2022 abgeschlossen sein.
802.3cu
802.3cu führte 100G- und 400G-Module ein (jetzt basierend auf 100G-Lanes) und fügte DR-, FR-, LR- und ER-Optionen hinzu. Nomenklaturoptionen umfassen nun die Spurzählung; 400GBASE-FR4 definiert vier Spuren von 100G über vier Wellenlängen unter Verwendung von zwei Fasern mit einer Reichweite von 2 km (das F). Die Arbeitsgruppe konnte sich nicht auf eine Reichweite von 10 km (für den LR4) und eine maximale Entfernung von 6 km einigen. Daher wurde eine neue Nomenklatur (400GBASE-LR4-6) geschaffen, in der „6“ für 6 km steht – im Vergleich zum gemeinsamen „L“, was eine Reichweite von 10 km bedeutet.
Obwohl der 802.3cu-Standard vor dem 802.3ck-Standard abgeschlossen wurde, sieht die Langzeitansicht 100G elektrische Fahrspuren, die mit 100G optischen Fahrspuren übereinstimmen. Dadurch wird die Notwendigkeit einer Getrieberatenanpassung reduziert, die für 25G- und 50G-Standards erforderlich ist. Es wird erwartet, dass die gemeinsame optische Schnittstelle in Zukunft auf 100G koalesziert – was die Abwärtskompatibilität über mehrere ASIC-Generationen hinweg erleichtert.
802.3db (Entwurf):
Zum Zeitpunkt des Schreibens fügt die 802,3db Task Force weiterhin MMF-Implementierungen hinzu, die diejenigen in 802,3 cm erweitern. Diese neuen Implementierungen erhöhen die Spurraten auf 100G mit einer Spurzahl von acht – die Grundlage für 400G und 800G über 100 m OM4. MMF-Serververbindungen stehen im Vordergrund. Angesichts des hohen Volumens dieser Verbindungen sind die Kosten für die Optik wichtig. Da viele Server zu Tier 1 (Blatt-)Links wahrscheinlich in Reihe und sehr kurz sein werden, versucht 802.3db, Anwendungen von weniger als 50 m zu optimieren. Die Hinzufügung von „VR“ zur Nomenklatur identifiziert die Reichweite von 50 m, während SR weiterhin eine Reichweite von 100 m angibt. Zu den erwarteten Anwendungen gehören 400GBASE-SR4 mit acht Glasfasern, wobei die QSFP-DD-Optik auf acht Bahnen verbleibt, um der ASIC-E/A-Kapazität zu entsprechen. Daher werden 16-Faser-Implementierungen für 2X400G SR4 verwendet. Eine Kapazität von 800G ist ebenfalls verfügbar. Da es jedoch derzeit keinen IEEE 800G MAC gibt, wird dieser Standard noch nicht 800GBASE-SR8 adressieren.
Umstellung auf 800G
Die Dinge bewegen sich schnell und – Spoiler-Warnung – sie sind gerade wieder gesprungen. Die gute Nachricht ist, dass zwischen den Normungsgremien und der Branche bedeutende und vielversprechende Entwicklungen im Gange sind, die Rechenzentren in naher Zukunft auf 400G und 800G bringen werden. Die Beseitigung der technologischen Hürden ist jedoch nur die Hälfte der Herausforderung. Der andere ist das Timing. Da alle zwei bis drei Jahre Aktualisierungszyklen laufen und neue Technologien schneller in Betrieb genommen werden, wird es für Betreiber schwieriger, ihre Übergänge richtig zu planen – und teurer, wenn sie es nicht richtig machen. Hier sind einige Dinge, die Sie bei der Planung der bevorstehenden Änderungen beachten sollten.
Da 100G-E/A die Switch-Port-Geschwindigkeit verdoppeln, können dieselben 400G-Verkabelungsstrategien und MMF mit höherer Bandbreite den Übergang zu 800G-Modulen unterstützen. Die steckbare MSA 800G nutzt die Einführung von Oktalmodulen und elektrischen 100G-Bahnen, um Implementierungsvereinbarungen für 800G-Optikanwendungen zu entwickeln. Ingenieure sind schnell dabei, Unterstützung für Breakout-Optionen wie 2x400, 4x200 und 8x100 hinzuzufügen; dennoch sind Anwendungen, die einen 800G-MAC erfordern, derzeit begrenzt.
Das IEEE hat eine Studiengruppe gestartet, um den Übergang zum nächsten Plateau höherer Ethernet-Raten zu unterstützen. 800G ist sicherlich auf der Karte, und auch ein Weg zu 1.6 T und darüber hinaus wird erkundet. Zu Beginn der Arbeit werden viele neue Ziele eingeführt. In dieser Studiengruppe gibt es eine breite Branchenbeteiligung, einschließlich der größten Netzbetreiber, die Standards als notwendig für das Netzwerkökosystem ansehen.
Es ist sehr möglich, dass diese Standards verwendet werden, um neue Modulstrategien zu entwickeln, um 1.6 T zu erreichen. Das Optical Internetworking Forum (OIF) arbeitet jetzt an einer 3.2T Optic Engine – einer Miniaturversion eines Transceivers, der so optimiert ist, dass er „gemeinsam verpackt“ neben der wechselnden ASIC sitzt.
Die Multi-Source Agreement (MSA)-Konsortien der Branche sind an laufenden Bemühungen beteiligt, die Entwicklung und Einführung neuer oder neuartiger Netzwerktechnologien zu beschleunigen. In einigen Fällen, wie z. B. das Hinzufügen von 800G-Implementierungen, können MSA-Bemühungen dazu führen, dass neue Technologien vor Abschluss der Industriestandards entwickelt werden.
800G steckbare MSA
In September 2019 wurde eine 800G steckbare MSA gebildet. IEEE-Arbeiten an 100G VCSELs laufen noch, daher entschied sich die MSA für einen kostengünstigen Singlemodus-Ersatz für die beliebten 8x100G SR MMF-Optionen. Ziel ist es, eine kostengünstige 800G SR8-Lösung für den frühen Markt bereitzustellen, die es Rechenzentren ermöglichen würde, kostengünstige Serveranwendungen zu unterstützen. Die steckbare 800G würde die Erhöhung der Switch-Radixe und die Verringerung der Serveranzahl pro Rack unterstützen
Abbildung 18: 8 x 100, 2 x 400 GbE-Module
400G BiDi MSA
In Juli 2018 wurde die 400G BiDi MSA entwickelt, um die Einführung von interoperablen optischen 400G-Transceivern für bidirektionalen 100-m-Transport über MMF zu fördern. In September 2019 kündigte die MSA die Veröffentlichung von Release 1.0 ihrer Spezifikation 400G-BD4.2 für eine optische Schnittstelle 400G über 100 m MMF an. Die Spezifikation nutzt 100G BiDi für Ethernet-Anwendungen und ist mit der weit verbreiteten parallelen MMF-Kabelinfrastruktur kompatibel. 400G-BD4.2 eignet sich für Anwendungen mit kurzer Reichweite, einschließlich der kritischen großen Reichweiten in modernen Rechenzentren zwischen Switches. Diese sind zwar wichtige Schritte nach vorn, aber sie bringen die Technologie nicht über den IEEE 802,3 cm Standard hinaus.
Abbildung 19: 400G MMF Bi-Di und SMF
100G Lambda MSA
In Oktober 2020 kündigte die 100G Lambda MSA Group ihre 400-Gigabit-Ethernet-Spezifikation anPAM4-enabled, 100G-per-wavelength bis zu 10 km unterstützt. Der Standard 400G-LR4-10 ist für Duplex-Singlemode-Verbindungen bis zu 10 km vorgesehen. Sie beruht auf dem Multiplexen von vier Wellenlängen von 100G PAM4-modulated optischen Signalen. Sie gewährleistet unter anderem die Multivendor-Interoperabilität für optische Transceiver in verschiedenen Formfaktoren. Derzeit befasst sich die 100G Lambda MSA Gruppe mit erweiterten Reichweiten von über 10 km.
Abbildung 20: Einzel-Lambda PAM4 QSFP
OSFP MSA
Die OSFP-MSA wurde in November 2016 entwickelt, um sich auf die Definition eines zukunftsfähigen, steckbaren Modulformfaktors der nächsten Generation für Hochgeschwindigkeitsnetzwerkanwendungen zu konzentrieren. In Mai 2021 veröffentlichte die Gruppe die OSFP 4.0 Spezifikation für 800G OSFP Module. Während das OSFP-Modul von Anfang an für die Unterstützung von 800G konzipiert wurde, unterstützt die OSFP 4.0-Spezifikation auch duale 400G- und 100G-Oktal-Breakout-Module mit dualen LC-, dualen Mini-LC-, dualen MPO- und oktalen SN/MDC-Glasfaseranschlussoptionen.
Abbildung 21: OSFP-LS-Modul
QSFP-TT MSA
In Mai 2021 veröffentlichte die QSFP-DD MSA-Gruppe Revision 6.0 ihrer QSFP-DD/QSFP-DD800/QSFP112-Hardwarespezifikation. Die Revisionen aktualisieren QSFP-DD und führen QSFP-DD800 und QSFP112 ein. Zu den weiteren Änderungen gehören die Unterstützung von 100G-Schnittstellen für elektrische Hosts und die Hinzufügung von mechanischen und Platinendefinitionen für QSFP-DD800 und QSFP112. Außerdem wird der elektrische und Management-Timing QSFP112 hinzugefügt und eine höhere Modulleistung von 25 Watt unterstützt.
Abbildung 22: QSFP-DD-Transceiver
Mehr als 800G (1.6 Z)
Da die Farbe bei den Modulen 400G und 800G noch nass ist, hat das Rennen auf 1.6 T und 3.2 T bereits begonnen. Es gibt technische Herausforderungen zu lösen und Standards und Allianzen aufzubauen, bevor wir dort ankommen. Ingenieure für optisches Design wägen weiterhin die Kosten und das Risiko einer Erhöhung der Fahrspurraten ab, anstatt mehr Fahrspuren hinzuzufügen. Unabhängig davon wird die Branche alle ihre Tools benötigen, um die nächsten Netzwerkgeschwindigkeiten zu erreichen.
Viele der großen Rechenzentrumsbetreiber sehen eine dringende Notwendigkeit, die Netzwerkeffizienz zu erhöhen und gleichzeitig äußerst schwierige Implementierungszeitpläne festzulegen. Das Thema Macht hängt weiterhin über der Branche und wirkt sich auf jede Entscheidung aus. Der Energieverbrauch ist eine hohe Steuer, die Netzwerke Rechenzentrumsanwendungen auferlegen, und wird bei der Betrachtung zukünftiger Netzwerkgeschwindigkeiten schwerer. Die Erhöhung der Verbindungskapazität ist ein wichtiges Werkzeug zur Verbesserung der Effizienz, aber natürlich muss sich die Technologie dafür kontinuierlich weiterentwickeln. Abbildung 23 zeigt die Kosten- und Leistungsverbesserungen, die erwartet werden, wenn die Geschwindigkeiten steigen.
Abbildung 23: Eine höhere Geschwindigkeit reduziert die Anzahl der erforderlichen Verbindungen und reduziert die Leistung pro Bit für Rechenzentrumsnetzwerke.
Co-Packaged Optics (CPO) bieten eine großartige Gelegenheit, den Leistungsbedarf auf einige wenige Picojoule zu senken und einen Weg zu 3.2-fach höheren optischen IO-Geschwindigkeiten zu finden. Um dorthin zu gelangen, müssen Sie einige schwierige technische Herausforderungen lösen und die Netzwerk-Lieferkette und ihren Betrieb neu gestalten. Wenn alles in Kraft tritt, könnten wir irgendwann in 2025 kommerziell erhältliche CPOs sehen; andernfalls könnte dieser Zeitplan zurückgeschoben werden.
Abbildung 24: QSFP-XD 16 Fahrspuren mit 100G pro Fahrspur
Auf der anderen Seite gibt es einen Weg, bei dem sich steckbare Module entwickeln würden, um diese Netzwerkgeschwindigkeiten zu erreichen, ohne dass CPO erforderlich wäre. Andy Bechtolsheims Präsentation auf der OFC ’21 bereitete die Weichen für einen Wettbewerb zwischen CPO und Pluggables mit der Einführung einer neuen OSFP-XD MSA. Aufbauend auf der Spezifikation des 800G OSFP-Moduls verdoppelt die OSFP-XD MSA die Anzahl der Fahrspuren von acht auf 16. Diese Bahnen werden mit 100G betrieben und liefern eine Modulkapazität von 1.6 T. Es wird davon ausgegangen, dass die elektrische ASIC-zu-Modul-Herausforderung mit bekannter Technologie gelöst werden kann. Die Leistungsschätzung ist ≈10 pJ, was sie in den Zielbereich für die 1.6-T-Generation bringt. Im Vergleich zu CPO kommt die Markteinführungszeit früher und mit geringerem Risiko.
Abbildung 25: Die OSFP-MSA hat die Spezifikation „OSFP-XD“ der nächsten Generation oder eine zusätzliche Dichte mit 16 elektrischen E/As und erwarteter 200G/Schienenfähigkeit eingeführt
Wie in Abbildung 26 gezeigt, erfordert das Erreichen von 3.2 T höchstwahrscheinlich 200G elektrische/optische Fahrspuren (16 * 200G). Wenn die Spurrate nicht steigt, müsste sich die Anzahl der parallelen Fasern oder Wellenlängen verdoppeln – und beide Optionen sind nicht wünschenswert (und möglicherweise nicht durchführbar).
Beachten Sie, dass die Erhöhung der elektrischen Fahrspurraten schwierig ist. Die IEEE802.3ck-Task Force arbeitet seit Mai 2019 an diesem elektrischen Standard für 100G und wird ihre Arbeit voraussichtlich Ende 2022 abschließen. Ein neues IEEE-Projekt wird die nächsten Schritte unternehmen, einschließlich der elektrischen 200G-Signalisierung. Diese Arbeit wird wahrscheinlich sehr herausfordernd sein, und aktuelle Schätzungen deuten darauf hin, dass diese Technologie in 2025 Jahren bereit sein könnte.
Unabhängig vom Anfangspfad – steckbare Module oder CPO – scheinen elektrische 200G-E/A ein notwendiger Schritt zu sein. CPO-Befürworter betrachten ihren Weg zu 200G angesichts der Vorteile ihrer Architektur als den nächsten natürlichen Schritt. Diejenigen, die sich für den Modulansatz einsetzen, glauben jedoch, dass sie das OSFP-XD skalieren können, um mit 200G kompatibel zu sein. Die Reduzierung der Knotenzahlen ermöglicht es ihrer Ansicht nach, das Gesamtziel zu erreichen, da Fortschritte bei Silizium den Leistungsbedarf reduzieren.
Wir wissen, dass 200G-E/A entscheidend ist, wenn Rechenzentren ihre Switch-Bandbreite und die Effizienz ihrer Netzwerkstruktur erfolgreich skalieren möchten. Darüber hinaus sind schnellere optische Fahrspurgeschwindigkeiten der Schlüssel zur Senkung der Gesamtkosten und zur Verbesserung der Energieeffizienz. Module und CPOs bieten beide potenzielle Wege zu 200G-Bahnen. Jeder Weg ist schwierig und riskant, aber es muss ein Weg nach vorne gefunden werden.
Bei 200G werden optische Bahnen (auch Singlemodus-Glasfaser) eine Verringerung der Reichweitenfähigkeit bis zu dem Punkt sehen, an dem aktuelle Topologien basierend auf einer Reichweite von 2 km gefährdet sein können. Wenn wir uns diesen höheren Geschwindigkeiten nähern, werden andere Technologien vielleicht attraktiver. Eine Möglichkeit sind kohärente, steckbare Module, die kostengünstiger und energieeffizienter werden. Wir können auch die Einführung kohärenterer Module in DC/DCI-Anwendungen sehen, da die Geschwindigkeiten weiter zunehmen.
Abbildung 26: Kapazitätstrends 2014-2024
Schlussfolgerungen
Zugegebenermaßen gibt es eine lange Liste von Dingen, die bei einer Hochgeschwindigkeitsmigration auf 400 Gb und darüber hinaus zu berücksichtigen sind. Die Frage ist, was sollten Sie tun? Ein großartiger erster Schritt ist es, die aktuellen Inhalte in Ihrem Netzwerk zu überprüfen. Wie ist es derzeit gestaltet? Sie haben beispielsweise Patchpanels und Trunkkabel zwischen den Punkten, aber was ist mit den Verbindungen? Haben Ihre Stammkabel Stifte oder nicht? Stimmt die Stiftwahl mit den Transceivern überein, die Sie verwenden möchten? Berücksichtigen Sie die Übergänge im Netzwerk. Verwenden Sie MPO-to-Duplex, ein einziges MPO bis zwei MPOs? Ohne detaillierte Informationen zum aktuellen Status Ihres Netzwerks wissen Sie nicht, was mit der Anpassung an die Anwendungen von morgen verbunden ist.
Wie sieht die Technologie-Roadmap Ihres Unternehmens aus, wenn Sie über zukünftige Anwendungen sprechen? Wie viel Start- und Landebahn benötigen Sie, um Ihre Infrastruktur auf die sich entwickelnden Geschwindigkeits- und Latenzanforderungen vorzubereiten? Haben Sie die richtigen Glasfaserzahlen und Architekturen?
Das sind alles Dinge, die Sie vielleicht bereits in Betracht ziehen, aber wer ist noch am Tisch? Wenn Sie im Netzwerkteam sind, müssen Sie mit Ihren Kollegen auf der Infrastrukturseite im Dialog stehen. Sie können Ihnen helfen zu verstehen, was installiert ist, und Sie können sie auf zukünftige Anforderungen und Pläne aufmerksam machen, die möglicherweise weiter unten liegen.
Schließlich ist es nie zu früh, externe Experten hinzuzuziehen, die Ihnen ein frisches Paar Augen und eine andere Perspektive geben können. Obwohl niemand Ihre Bedürfnisse besser kennt als Sie, ist es wahrscheinlicher, dass ein unabhängiger Experte mit bestehenden und aufkommenden Technologien, Designtrends und Best Practices besser umgehen kann.
Lösungen für Unternehmensrechenzentren
Lösung
Hyperscale- und Cloud-Rechenzentren
Lösung
Mandantenfähige Rechenzentren
Lösung
Serviceprovider-Rechenzentren
Einblicke
Multimode-Glasfaser: die Faktendatei
Ressourcen
Bibliothek der Hochgeschwindigkeitsmigration
Informationen zur Spezifikation
OSFP MSA
Informationen zur Spezifikation
QSFP-TT MSA
Spezifizierung
QSFP-DD Hardware
Einblicke
Migration zu 400G/800G: die Faktendatei – Teil I
Auf den ersten Blick scheint das Feld potenzieller Infrastrukturpartner, die um Ihr Unternehmen kämpfen, ziemlich überfüllt zu sein. Es gibt keinen Mangel an Anbietern, die bereit sind, Ihnen Glasfasern und Konnektivität zu verkaufen. Aber wenn Sie genauer hinsehen und überlegen, was für den langfristigen Erfolg Ihres Netzwerks entscheidend ist, wird die Auswahl immer kleiner. Das liegt daran, dass mehr als Glasfaser und Konnektivität erforderlich sind, um die Entwicklung Ihres Netzwerks sehr stark voranzutreiben. Hier zeichnet sich CommScope aus.
Nachgewiesene Leistung: CommScope kann auf eine mehr als 40-jährige Innovations- und Leistungsgeschichte zurückblicken: Unsere Singlemode-Faser TeraSPEED® kam drei Jahre vor dem ersten OS2-Standard auf den Markt, und unsere bahnbrechende Breitband-Multimode-Faser war die Grundlage für OM5-Multimode. Heute unterstützen unsere End-to-End-Glasfaser- und Kupferkabellösungen und AIM-Intelligenz Ihre anspruchsvollsten Anwendungen mit der Bandbreite, den Konfigurationsoptionen und der extrem verlustarmen Leistung, die Sie benötigen, um mit Zuversicht zu wachsen.
Agilität und Anpassungsfähigkeit: Unser modulares Portfolio ermöglicht es Ihnen, schnell und einfach auf sich ändernde Anforderungen in Ihrem Netzwerk zu reagieren. Singlemode und Multimode, vorkonfektionierte Kabelkonfektionen, hochflexible Patchpanels, modulare Komponenten, 8-, 12-, 16- und 24-Glasfaser-MPO-Konnektivität, sehr kleine Duplex- und Parallelsteckverbinder. CommScope sorgt für Schnelligkeit, Agilität und genutzte Chancen.
Zukunftssicher: Bei der Migration von 100G auf 400G, 800G und darüber hinaus bietet unsere Hochgeschwindigkeits-Migrationsplattform einen klaren Weg zu höheren Glasfaserdichten, schnelleren Lane-Geschwindigkeiten und neuen Topologien. Reduzieren Sie Netzwerkebenen, ohne die Verkabelungsinfrastruktur zu ersetzen, und wechseln Sie zu Servernetzwerken mit höherer Geschwindigkeit und geringerer Latenz, wenn sich Ihre Anforderungen weiterentwickeln. Eine robuste und agile Plattform bringt Sie nach vorn.
Garantierte Zuverlässigkeit: Mit unserer Application Assurance garantiert CommScope, dass die Links, die Sie heute entwerfen, Ihre Anwendungsanforderungen über Jahre hinweg erfüllen. Wir unterstützen diese Verpflichtung mit einem ganzheitlichen Lebenszyklus-Serviceprogramm (Planung, Design, Implementierung und Betrieb), einem globalen Team von Field Application Engineers und der 25-jährigen Garantie von CommScope.
Globale Verfügbarkeit und lokaler Support: Die globale Präsenz von CommScope umfasst Fertigungs-, Vertriebs- und lokale technische Dienstleistungen auf sechs Kontinenten mit 20,000 leidenschaftlichen Fachleuten. Wir sind für Sie da, wann und wo immer Sie uns brauchen. Unser globales Partnernetzwerk stellt sicher, dass Sie über die zertifizierten Designer, Installateure und Integratoren verfügen, um Ihr Netzwerk voranzubringen.
Auf dem Weg zu 1.6 T
Lesen Sie, was Hyperscale- und Multi-Tenant-Rechenzentren wissen müssen, um ihren Wechsel zu 1.6 T mit Weitsicht und Vision zu planen.