Kabelgestützte Kommunikation

Leitungsgebundene Kommunikation

Alles sind Daten, Daten sind alles

Sarah Boen und David Akerson sprechen über die umfangreichen Trends, die die Branche der Rechenzentren und der leitungsgebundenen Kommunikation beeinflussen.

Mit der schnellen Verbreitung vernetzter Geräte und Sensoren erzeugen wir mehr Daten als jemals zuvor und dieser Trend wird voraussichtlich anhalten. In einer Welt des exponentiellen Datenwachstums ergeben sich herausfordernde Fragestellungen: Wo speichern wir die Daten? Wie rufen wir die Daten ab, wo sie gebraucht werden, wenn sie gebraucht werden? Und wie greifen wir in Hinblick auf die optimale Nutzung schnellstmöglich darauf zu?

Die voranschreitende Digitalisierung und der zunehmende Einsatz neuer Sensoren führt in der Welt der IoT zu einem explosionsartigen Anstieg der Datenmengen.

„Beispielsweise ist die Menge an Sensordaten, die bei einem Flug anfallen und übertragen werden, enorm.“, so Boen. „Der Boeing ecoDemonstrator 787 nutzt mehr als 140.000 Datenpunkte, die pro Flug Datenmengen im Terabyte-Bereich erzeugen. All diese Daten müssen in das Rechenzentrum gelangen und schnell in Echtzeit verarbeitet werden.“ Mit über 100.000 kommerziellen Flügen pro Tag summiert sich dies zu einer großen Menge von Daten auf – und das ist nur ein kleiner Ausschnitt für die Datenmengen, die jeden Tag erzeugt werden.“

„Im Laufe des letzten Jahrzehnts haben sich die Datenmengen, die Rechenzentrum-Manager erfassen müssen, dramatisch geändert. In unserer Zeit spricht die Industrie nicht mehr von einer Größenordnung in Gigabytes, sondern in neuen Dimensionen von Exa- und Zettabytes“, veranschaulicht Akerson. „Diese Daten haben ein enormes Potenzial, um Geschäfte effizienter und profitabler zu gestalten und können in einigen Fällen als neue Dienstleistungen für Endnutzer angeboten werden.“

Bislang war der Nutzen dieser Datenmengen in Echtzeit aufgrund der limitierenden Technologie eingeschränkt. Im Laufe des nächsten Jahrzehnts werden neue Technologien von Tektronix vorausgesagt, welche Unternehmen in die Lage versetzen, das Potenzial ihrer Daten zu vermarkten.

Hot Data. Bahn frei für PCI Express

Ein zweiter Datacenter Trend ist die Entwicklung von PCI Express als Speicherschnittstelle. Dieser Trend hat sich aus dem Grund durchgesetzt, dass PCI Express Daten schneller und mit einer niedrigeren Latenz zur Verfügung stellen kann. Dies wirkt sich erheblich auf die Effizienz und Rentabilität von Unternehmen aus.

Quelle: IDC, 2017

„Vor fünf Jahren war der PCI Express-Speicher nicht die am häufigsten verwendete Speicherschnittstelle, jedoch haben die Leistungsvorteile der Technologie in Bezug auf Durchsatz und Latenz dazu geführt, dass die Schnittstelle immer mehr eingesetzt wird“, erläutert Akerson. „Um zu veranschaulichen, weshalb Speicher eine immer höhere Aufmerksamkeit bekommt, hat Amazon eine Studie durchgeführt und festgestellt, dass 100 ms Latenzzeit zu einem Umsatzverlust von 1 % führt. Google ermittelte, dass zusätzliche 500 ms bei der Erstellung von Suchseiten den Datenverkehr um 20 Prozent gesenkt haben. Eine weitere Studie hat gezeigt, dass ein Broker 4 Mio. Dollar pro Millisekunde verlieren könnte, wenn seine elektronische Handelsplattform 5 ms langsamer als die seiner Mitbewerber wäre. Für diese Unternehmen erbringen die älteren Schnittstellen nicht die gewünschte Leistung und treiben sie zu einem NAND-basierten Speicher, der mit der PCI Express-Schnittstelle verwendet wird.“

 

Aufgrund der Anzahl der SSD-basierten Geräte, die mit dem Netzwerk verbunden sind, steigt die übermittelte und gespeicherte Datenmenge.

 

„Unabhängig davon, ob Unternehmen die Daten in der Cloud oder lokal speicheren, werden die Herausforderungen bei der Bereitstellung großer Datenmengen mit niedriger Latenz auch weiterhin die Fortschritte der Speicherschnittstellen-Standards und die Einführung neuer Technologien vorantreiben“, so Boen. „Speicher-Schnittstellen und -Standards, wie PCI Express entwickeln sich mit PCI Express Gen4 (16GT/s) Speicherprodukten sehr schnell und Gen5 (32GT/s) ist bereits am Horizont zu sehen. Um mit der Entwicklung Schritt zu halten, kündigte der SCSI Wirtschaftsverband die Spezifikation der 24G Serial Attached SCSI (SAS4) an.“

„Für Hersteller, die diese Technologien einsetzen, gibt es immer noch ein Bedenken.“, so Boen. „Obwohl diese Produkte immense Leistungsvorteile haben, werden diese neuen Technologien durch die goldenen Regeln des Rechenzentrums beeinflusst: Rechenzentrumsbetreiber möchten alles in low-power und low-cost auslegen. Dies sind die wesentlichen Triebkräfte für sie.“

Neue Technologien, neue Vielschichtigkeiten

Neben Veränderung in der Speicher- und Servertechnologie erlebt die Netzwerk- und Kommunikationstechnik einen ähnlich drastischen Wandel, um eine schnellere Datenübertragung bereitzustellen. In diesem Verlauf ist der Komplexitätsgrad bereits in der Vergangenheit angestiegen und wird auch in der Zukunft weiterhin steigen.

NRZ vs. PAM4

Modulationsverfahren wie PAM4 werden zu einer beliebten Alternative von NRZ. Obwohl PAM4 eine höhere Übertragungsrate aufweist, geht dies auf Kosten des Signalrauschens und mit zusätzlichen Tests einher. „Die Anzahl von Testprozeduren für jemanden, der einen PAM4-Transceiver entwickelt, ist zehnmal höher, als bei einem Transceiver mit NRZ-Codierung.“, erläutert Akerson. „Wenn Sie als Unternehmen einen PAM4-Transceiver entwickeln, besteht Ihre größte Herausforderung darin, wie Sie Ihr Produkt möglichst schnell auf den Markt bringen und wie Sie Ihre Versuchszeitkosten reduzieren.“

Eine zentrale Herausforderung für Hersteller ist die Unsicherheit über einzusetzende Technologien. „Zur Zeit besteht keine Klarheit darüber, welche Technologie sich zukünftig etablieren wird und es gibt viele Akteure, die mehrere Technologien implementieren“, sagt Boen. „Wenn Sie sich die Strategiepläne verschiedener Kunden ansehen, stoßen Sie auf traditionelle Signalcodierung, wie 28GBd PAM4 und 56GBd NRZ.

Sie implementieren beides, um auf Nummer sicher zugehen, da sie nicht genau wissen, was am besten funktioniert, und die Signalgebungstechnologie eignet sich möglicherweise für eine Anwendung besser als für eine andere.“ Wie Boen erklärt, gibt es einige wenige Ansätze, wie Hersteller versuchen, dieser Komplexität gerecht zu werden. „Zunächst führen sie im Vorfeld eine Simulation der Funktionsweise durch. Dies schließt die Übertaktung von bereits bestehenden Lösungen ein, um herauszufinden, wie die Geschwindigkeit erhöht werden kann.

Nicht mehr auf Standards warten

Ein weiterer breiter Trend in Rechenzentren und in der leitungsgebundenen Kommunikation sind diejenigen, die die Technologieveränderungen vorantreiben. „In der Vergangenheit wurde die Vernetzung der Rechenzentren von IEEE oder OIF-CEI vorangetrieben“, erklärt Boen. „Nun sind es jedoch die großen Rechenzentrenbetreiber wie Amazon, Apple, Facebook, Google und Microsoft, die die neuen Technologie vorantreiben und nicht notwendigerweise auf fertige Standards warten.

Während die Amazons, Googles und Facebooks dieser Welt aktive Teilnehmer in Standardisierungsgremien sind, treiben sie nebenbei ihre internen Technologieentwicklungen voran und legen in einigen Fällen sogar die Definition neuer Standards fest“, so Boen. „Sie sind im Vorstand dieser Konsortien, um Technologie voranzutreiben. Da die Abläufe in Standardisierungsgremien jedoch zu langwierigen Fortentwicklungen neigen, werden von einer Gruppe von Unternehmen häufig Multi-Source-Agreements abgeschlossen, die die Technologieentwicklung schneller vorantreiben, um ihre Unternehmensziele zu erreichen.“

Kleinere lokalisierte Rechenzentren

„Neue Standards und Schnittstellentechnologien sind jedoch immer noch nicht ausreichend, um mit dem hohen Datenaufkommen Schritt halten zu können“, so Boen Aus diesem Grund sagt sie voraus, dass sich die Rechenzentren näher in die Richtung ihrer Datenquellen bewegen werden und somit schließlich kleiner werden. Dies wird insbesondere für das sogenannte Hot Data entscheidend. Das sind Daten, auf die man schnell und oft zugreifen können muss.

„Denken Sie zum Beispiel an die Automobilindustrie“, so Boen „Intelligente Autos und selbstfahrende Autos sowie der umfassende Datenaustausch wird den Rechenzentren und der gesamten Netzwerkinfrastruktur zum Durchbruch verhelfen. Das sind Hot Data, über die Sie sich schnell verfügen müssen. Daher wird es wahrscheinlich auch kleinere Rechenzentren geben, die näher am Point-of-Service liegen“. Diese kleineren lokalisierten Rechenzentren werden wahrscheinlich mit einer kohärenten optischen Technologie verknüpft sein. Laut Boen werden sich dadurch neue Herausforderungen für Mess- und Prüfmethoden ergeben. „Wir denken, dass wir in Zukunft auch innerhalb der Rechenzentren verstärkt kohärent-optische Technologien begegnen werden“, sagt sie. „In einem Transceiver gibt es eine elektrische Schnittstelle, die über eine Weiche in einen optischen Transceiver führt und diese Auslegung könnte in Zukunft auch direkt mit einer Optik an der Weiche realisiert werden, um den Stromverbrauch zu minimieren. Ich denke, wir werden unterschiedliche Technologien oder vielleicht auch dieselben Technologien auf unterschiedliche Arten sehen. Dies wird das Ökosystem in Bezug auf unsere Mitspieler und die Art der erforderlichen Prüfmethoden für unsere Kunden verändern.“

Messtechnologie in einer sich verändernden Welt

Aufgrund dieser umfangreichen Trends ergeben sich neue Herausforderungen an unsere Prüf- und Messtechnik, die gemeistert werden wollen. Das Wechselspiel zwischen neuen Standards, Ansätzen und Technologien macht die Messtechnik wichtiger, als je zuvor. „Die Komplexitäten bei der Entwicklung sind enorm gestiegen“, so Akerson. „Es müssen mehr Tests durchgeführt werden, um die Qualität Ihrer Produkte zu gewährleisten.“

„In der Industrie gibt es momentan große Veränderungen und für uns als Testanbieter besteht die Herausforderung, darauf vorbereitet zu sein“, erklärt Boen. „Unsere Kunden erwarten von uns flexible Testlösungen, die sie gezielt für ihre verschiedenen Anwendungen einsetzen können, ohne ein spezielles Instrument für jede einzelne Anwendung zu kaufen. Dies sind nur einige der Dinge, an denen wir für unsere zukünftigen Plattformen arbeiten.“

Im Wandel der Rechenzentren und deren Technologien müssen sich auch die Methoden verändern, die wir zur Messung unserer Designs verwenden. Von neuen Modulationsverfahren bis hin zu neuen Verbindungsprokollen, von expandierenden Rechenzentren über optische Verbindungen, bis hin zu Big Data und Änderungen in der Ausarbeitung neuer Standards – eine Tatsache bleibt bei der leitungsgebundenen Kommunikation bestehen: Messtechnische Überprüfungen bleiben auch weiterhin ein entscheidender Faktor für den Erfolg eines Projekts.

Erfahren Sie mehr über Anwendungen in der leitungsgebundenen Kommunikation

Trends in weiteren Anwendungen

Downloads
Download

Laden Sie Handbücher, Datenblätter, Software und vieles mehr herunter:

Go to top