Wer weiß, ob die Server noch durchhalten

Die Alten sind zufrieden – und die Jungen. Unzufrieden mit ihrer eigenen Leistung sind vor allem die Rechenzentren mittendrin, die ihre Arbeit zwischen 2000 und 2012 aufgenommen haben. Dieses Kernergebnis des ersten Studienberichts zum Optimized-Data-Center-Benchmark erklärt sich aus dem rasant steigenden Anforderungen:

Durch die Altbestände ist bereits eine Modernisierungswelle geschwappt – sie erreichen einen überdurchschnittlichen Effizienzindex von 65 Punkten. Beispielhaft zeigt das die im August 2015 fertiggestellte Neueinrichtung der Klimatechnik für die Universität Mannheim (Seite 24). Die neueren Anlagen wiederum konnten schon beim Bau aktuelle Best Practices berücksichtigen und neue Technologien nutzen; hier liegt der eher selbstkritische Effizienzindex bei immerhin 60 Punkten und damit knapp über dem Durchschnitt von 59.

Das ist insgesamt kein gutes Ergebnis. Es ist umso bedenkenswerter, als es die Selbsteinschätzung der RZ-Betreiber widerspiegelt. Auf www.optimized-datacenter.de haben RZ-Experten, techconsult und iX ein kostenfreies Online-Tool entwickelt, mit dessen Hilfe Verantwortliche in 60 bis 90 Minuten herausfinden, wie sie im Vergleich mit anderen Unternehmen ihrer Branche und Größe dastehen. Die Fragen reichen vom Rechenzentrumsbetrieb über die physische und virtuelle IT-Infrastruktur bis hin zur Gebäudeinfrastruktur und der externen Anbindung. Einen ausführlichen, individuellen Statusbericht bekommt man sofort; der übergreifende Studienbericht 1 („Die Effizienz deutscher Rechenzentren 2015/2016“) ist dort seit Kurzem verfügbar.

Die Rechenzentren Baujahr 2000 bis 2010, die eigentlich in den besten Jahren sein sollten, bekommen offenbar heftig zu spüren, dass das Bessere der Feind des Guten ist. CIOs und Admins ist sehr wohl klar, dass sie den Überblick über ihr gewachsenes RZ-Gebilde zu verlieren drohen. Das ist der Grund, warum sich das Thema Komplexität und Monitoring wie ein roter Faden durch dieses Heft zieht. Gleich eingangs zeigt Oliver Lindner einen interessanten Aspekt im Data Center Infrastructure Management auf: Predictive Maintenance kann die optimalen Wartungsintervalle je nach Standort, Modell und Situation berechnen und damit Downtimes und Kosten im Griff behalten (Seite 4). Mittlerweile können sogar intelligente Stromschaltleisten umfangreiche Steuer- und Kontrollfunktionen übernehmen. Wie das funktioniert – und wo die Sicherheitsrisiken liegen –, erklärt Ralf Ploenes ganz zum Schluss (Seite 25).

Dazwischen geht es darum, wie Microsoft Azure Stack Cloud-Funktionen ins Rechenzentrum übersetzt (Seite 20) und was Hyperkonvergenz zur Datensicherheit beitragen kann (Seite 16). Außerdem gibt Dirk Paessler persönlich einen guten Überblick über die Relevanzkriterien bei der Entscheidung für oder gegen eine Netzwerkmonitoring-Lösung (Seite 22). Sein Tenor: Es nützt nur das, was tatsächlich genutzt wird.

Dazwischen sehen wir uns zum einen die Treiber der Komplexität an, zum anderen zeigen wir mögliche Lösungen auf. Zuerst das Pflichtprogramm. Vier Teile von DIN EN 50600 sind bereits erschienen, aber bislang berücksichtigt die Energieeffizienznorm die Systemauslastung nicht als Kriterium, moniert Ariane Rüdiger (Seite 11). Zugleich kommen 2016 neue Verkabelungsnormen für Rechenzentren heraus. Doris Piepenbrink hat bei den zuständigen Arbeitsgruppen nachgehakt und berichtet, was für Highspeed-Kupferkabel bis 100 GBit/s vorgesehen ist (Seite 18). Selbst Software-defined- Ansätze erweisen sich als Lösung und Druckverstärker zugleich: Einerseits gibt es softwaredefinierte IT-Infrastrukturen bereits als fertige Komplett-Appliances, andererseits argumentiert Matthias Hain, dass frei definierte Netzwerke auf Provider-Seite bald ganz andere Geschäfts- und Abrechnungsmodelle erfordern werden (Seite 6). Auf Anwenderseite wird man sich mit weniger sicher nicht zufriedengeben.

Quelle: Rechenzentren und Infrastsruktur 1/2016 in iX 2/2016.