Die Umstellung auf 400Gb passiert früher als Sie denken

 
Wenn Rechenzentrumsmanager in die Zukunft blicken, sehen Sie überall eine Evolution cloudbasierter Lösungen. Mehr virtualisierte Hochleistungsserver, höhere Bandbreite und geringere Latenzanforderungen sowie schnellere Switch-to-Server-Verbindungen. Egal, ob Sie heute 10 Gb oder 100 Gb verwenden, der Übergang zu 400 Gb ist näher, als Sie sich vorstellen.

Viele Faktoren sind für den Antrieb auf 400G/800G und darüber hinaus verantwortlich. Rechenzentren haben sich von mehreren unterschiedlichen Netzwerken zu virtualisierteren, softwaregesteuerten Umgebungen entwickelt. Gleichzeitig stellen sie mehr Maschinen-zu-Maschine-Verbindungen bereit und reduzieren die Anzahl der Switches zwischen ihnen. Die meisten Elemente zur Unterstützung der Cloud-Rechenzentren von morgen existieren. Was fehlt, ist eine umfassende Strategie zur Schaffung einer Infrastruktur mit physischer Ebene, die alles miteinander verbinden kann.

Wie kommen wir also dorthin? Kennen Sie die Optionen.  

data center image

Transceiver

Der Wechsel zu 400 Gb erfordert die Verdoppelung der Dichte der aktuellen SFP-, SFP+- oder QSFP+-Transceiver. Hier kommen QSFP-Double Density (QSFP-DD) und Octal-Small-Form-Factor-Pluggable (OSFP) ins Spiel. Beide verwenden acht Lanes gegenüber vier und können 32 Ports in ein 1RU-Panel aufnehmen. Die einzigen signifikanten Unterschiede liegen in der Abwärtskompatibilität und den Leistungsverarbeitungsfunktionen. Die MSAs erwähnen verschiedene optische Verbindungsoptionen: LC-, Mini-LC-, MPO-8, 12-, SN-16, MDC- und CS-Anschlüsse können je nach unterstützter Anwendung ausgewählt werden. Apropos Anschlüsse:

Kupplungen

Eine Vielzahl von Anschlussoptionen bietet mehr Möglichkeiten, die höhere oktale Kapazität zu verteilen. 12-Faser-MPO wurde traditionell zur Unterstützung von sechs Zwei-Faser-Lanes verwendet. Bei vielen Anwendungen, wie 40GBase-SR4, die nur vier Lanes (acht Glasfasern) verwenden, kann MPO16 für die Verwendung mit Oktalmodulen besser geeignet sein. Weitere Anschlüsse, die es wert sind, in Betracht gezogen zu werden, sind die SN und MDC, die über 1,25-mm-Klemmhülsen verfügen und flexible Breakout-Optionen für optische Hochgeschwindigkeitsmodule bieten. Letztlich wird es darauf ankommen, welche Transceiver mit welchen Steckern in Zukunft verfügbar sind.

Chips

Natürlich gibt es keine Grenzen für die Nachfrage nach Bandbreite. Derzeit ist der limitierende Faktor nicht die Anzahl der möglichen Anschlüsse am Switch, sondern die innere Kapazität des Chipsatzes. Höhere Radix kombiniert mit höheren SERDES-Geschwindigkeiten für eine höhere Nettokapazität. Der typische Ansatz von ca. 2015 zur Unterstützung von 100GB-Anwendungen verwendet 128 25GB-Lanes, was eine Schaltkapazität von 3,2 TB ergibt. Um 400Gb zu erreichen, musste die ASIC auf 256 50GB-Lanes erhöht werden, was eine Schaltkapazität von 12,8 TB ergab. Der nächste Schritt, 256 100GB-Lanes, bringt uns auf 25,6 TB. Zukünftige Pläne werden in Betracht gezogen, um die Lane-Geschwindigkeiten auf 200 GB zu erhöhen. Das ist eine schwierige Aufgabe, die bis zur Perfektion einige Jahre dauern wird.

Tauchen Sie tiefer in 400G/800 ein (Teil 1)

Wir haben erst den Anfang dessen besprochen, was Rechenzentrumsmanager berücksichtigen müssen, wenn sie über ihre Strategien und Zeitpläne für die Migration zu 400G/800G nachdenken. Es gibt noch viel mehr über den aktuellen und zukünftigen Stand der Technik zu sagen. Um weitere Einzelheiten zu erfahren, empfehlen wir Ihnen, das Datenblatt zu diesem Thema zu lesen. Und stellen Sie sicher, dass Sie sich häufiger bei CommScope über die Entwicklung auf dem Laufenden halten.

Migration zu 400G/800G: die Faktendatei – Teil I

Hyperscale und Multi-Tenant-Rechenzentren müssen jetzt für die 400G/800G-Migration planen. Erhalten Sie die Einblicke, die Sie zur Vorbereitung benötigen – Optik, Glasfaser, Kabeldesign und mehr.

Lesen

Bleiben Sie informiert

Abonnieren Sie The Enterprise Source und erhalten Sie Updates, wenn neue Artikel veröffentlicht werden.

Kategorien
Artikel