Wo steht, welche Verkabelung zukunftssicher ist

Rechenzentrumsbetreiber beobachten derzeit genau, was da am Horizont heraufzieht: DIN EN 50600-X heißt die Normenreihe, die sich momentan über Europas Rechenzentren schiebt und die Großwetterlage bestimmt. Besonders schwierig werden verlässliche Vorhersagen bei der Verkabelung, die schließlich auch dann noch durchhalten soll, wenn sich die Lasten gründlich geändert haben und die übrige Erstausstattung längst zum alten Eisen gehört.

Eine vorausschauende Redundanzplanung skizziert Doris Piepenbrink in ihrem Beitrag ab Seite 13. Sie erklärt außerdem, wie weit die PoE-Entwicklung ist und was es im Hinblick auf die steigenden Temperaturen der Datenkabel zu beachten gilt (Seite 6). Ein IEEE-Standard bis 49 W ist für 2018 anvisiert, proprietäre Lösungen für Power over Ethernet sind aber schon vorausgeprescht und legen bis zu 100 W Spannung auf die Datenleitung. Eine derart starke Fernspeisung wird vermutlich auch verbesserte Steckverbindungen brauchen, damit man die Kontakte nicht schon beim Abziehen ruiniert.

Hinzu kommt, dass die DIN EN 50600 den Markt für energieeffiziente Produkte kräftig angeheizt hat. Vor allem die Klimatechnik rückt damit wieder einmal in den Fokus, und auch sie muss irgendwie den Spagat zwischen jüngsten Normvorgaben und einer zukunftsfähigen Auslegung schaffen. Thomas Wermke schildert die Lage am praktischen Beispiel eines Seitenkühlers (Seite 20), und Thomas Nieschalk erklärt, wie ein taugliches Infrastrukturmanagement angelegt sein sollte (Seite 22). Hinzu kommen Kurzberichte aus dem KPI4DCE-Projekt des Umweltbundesamts (Seite 23) und vom Klimaschutz-Teilkonzept im Landkreis Marburg-Biedenkopf (Seite 24).

Unser zweiter Anwendungsfall geht dagegen ganz ins Große (Seite 18): Der VW-eigene Finanzdienstleister hat seine weltweit verteilten Rechenzentren neu platziert und dabei genau auf Latenzen und Verfügbarkeit gachtet. Erstaunlicherweise haben die Techniker trotz 6000 km mehr Entfernung kürzere Antwortzeiten und eine insgesamt 91 % schnellere Anwendung geschafft. Der Trick liegt in einer gezielten Software-Optimierung und im präzise abgestimmten Zusammenspiel mit der Infrastruktur. Eine Möglichkeit, die Software-Entwicklung selbst deutlich zu beschleunigen, besteht in einer intelligenten Datenvirtualisierung: Entwickler, die umstandslos sicheren Zugriff auf Produktionsdaten haben, kommen sehr viel rascher zu einsatzfertigen Ergebnissen.

Was ein Copy-Data-Management gerade im Zusammenspiel mit DevOps leisten kann, erläutert Dirk Neumann ab Seite 10. Effizienz bedeutet hier einen unmittelbaren Kostenfaktor: „Mannstunden, typisch!“, sagen die Damen im Controlling. Dort darf man sich zum Trost die jüngsten Ergebnisse der Optimized-Data-Center-Studie zu Gemüte führen (Seite 4): Anderen geht es auch nicht besser; im Schnitt erreicht der Effizienzindex deutscher Rechenzentren gerade 59 von 100 Punkten. Das ist Schulnote 3. Die Versetzung ist zwar nicht gefährdet, aber offenbar ließe sich manches besser machen. Einen praktischen Vorschlag macht Ulrich Wolf: ein Open-Source-Storage- System mit Ceph (Seite 16). Das ist zwar nicht ganz leicht aufzusetzen, dafür aber charmant auf der Kostenseite, extrem ausfallsicher und gut skalierbar.

Vielleicht ist es am Ende nicht verkehrt, an den Anfang zurückzukehren, haben wir uns gedacht. Also – was machen eigentlich die guten alten Mainframes? Gefühlt würde ich sagen: Die sind nicht tot, sie rühren sich bloß nicht mehr. Dieser Eindruck täuscht aber. Großrechner werken weiterhin fleißig im Einsatz. Auf der Podiumsdiskussion, von der Frank Zscheile zum Heftschluss berichtet (Seite 25), zeigte sich, dass das Problem ein ganz anderes ist: Nicht die Mainframes sterben aus, sondern die Mainframe-Spezialisten.

Quelle: Rechenzentren und Infrastruktur 2/2016 in iX 5/2016