Wo der Kampf um Datenhoheit entschieden wird

Es sollen herrliche Zeiten sein. Mit softwaredefinierten Netzwerken (SDN), die völlig frei an die Cloud anzuschließen und nahezu vollständig elastisch sind. Provider könnten damit ihre Lasten noch eleganter verschieben, ihre Ressourcen optimal verteilen und zugleich an Trends anschließen, die unter dem Namen „Internet of Things“ (IoT) mit umfassender Vernetzung drohen. Allerdings bricht damit die Virtualisierung auf einer neuen Ebene in die Rechenzentren ein, was einen deutlich schärferen Grad an Automatisierung und neue Sicherheitskonzepte erfordert – eben weil das System dann sehr viel offener ist.

Frank Beckereit erörtert in seinem Schwerpunktbeitrag (S. 11), ob sich das lohnt – und zu welchem Preis. Ein konkretes SDN-Sicherheitskonzept legt dazu Christian Hentschel auf den Tisch (S. 16). Die Schlüsselrolle spielen dabei Next-Generation Firewalls, deren Regelsätze dank vorausgegangener Mikrosegmentierung mit jedem verschobenen Baustein mitwandern.

In jedem Fall lösen sich die physischen Komponenten damit nicht in Luft auf. Moderne Multimode-LWL bis 100 MBit müssen mit dem Traffic fertigwerden. Das können sie aber nur, wenn die Lichtleistung nicht in der Dämpfung verschwindet. Das auszuloten und den kritischen Stecker dingfest zu machen, ist mittlerweile ein eigenes Kunststück. Die Encircled-Flux-Metrik, erklärt Wilfried Schneider, kann dabei wertvolle Dienste leisten: Mit ihrer Hilfe lassen sich die sonst heftigen Messabweichungen auf unter 10 % drücken (S. 6).

Die zweite Großgruppe von Beiträgen berichtet direkt aus der Praxis. Der erste betrifft Data Center, die auf absehbare Zeit eine Großbaustelle in der Nachbarschaft haben. Dann nämlich stellen die Erschütterungen ein beträchtliches Risiko für den Betrieb der eigenen Anlagen dar, von der Haftungsfrage bei Ausfällen einmal ganz abgesehen. Das Team aus Friederike Busch, Markus Löffler und Andreas Gömmel stellt als Alternative zum Standardverfahren, das anfällig für (teure) Fehlalarme ist, ein erprobtes Monitoring-System vor, das im Vorfeld kalibriert und je nach Baufortschritt weiter betreut wird (S. 12). Mehrstufig angesetzte Grenzwerte lösen nicht erst den roten Alarm aus, sondern warnen die Arbeiter bereits, wenn sie mit ihren Maschinen ins Orange rumpeln.

Im zweiten Anwenderbeitrag schildert Simon Federle einen ungewöhnlichen Neubau: ein Rechenzentrum in den Speicherräumen eines aktiven Umspannwerks (S. 20). Stromversorgung und Gebäudesicherheit sind 1A, doch knapp einen Meter unter dem Boden fließen bis zu 1.000 Ampere und bauen ihr eigenes Magnetfeld auf. Dennoch verging vom ersten Auftrag bis zur Inbetriebnahme kein halbes Jahr.

Eine gute Nachricht haben wir noch zum Schluss: Das für produzierende Unternehmen verpflichtende Energieaudit gemäß DIN EN 16246-1 ist lästig, muss aber kein Angstgegner sein. Wer ein IT-gerechtes Energiemanagement samt Klimatisierung aufsetzt, sagt Karl-Heinrich Spiering, spart Stromkosten und kann die Untersuchung getrost auf sich zukommen lassen (S. 22). Und wer jetzt schon wissen will, wie die eigenen Systeme im Branchenund Größenvergleich abschneiden, kann sich die Benchmark-Abfrage „Optimized Data Center“ vormerken, die wir auf S. 4 vorstellen. Außerdem hat Ariane Rüdiger – apropos Green IT – nachgesehen, wohin der nordamerikanische Markt geht. Speziell in Kalifornien können die Rechenzentren jedenfalls nicht so weiterwirtschaften wie bisher. Das Fazit: Die neuen US-Regularien könnten durchaus eine Chance für deutsche Effizienztechnik sein.

So scheint es zwar, als würde der bereits voll entbrannte Kontinentalkampf um die Datenhoheit auf der Facebook-Oberfläche von Smartphones ausgetragen. Entschieden wird er wohl eher ganz im Inneren: in den Rechenzentren. Wir informieren Sie weiter und wünschen eine anregende Lektüre.

Quelle: Rechenzentren und Infrastruktur 4/2015 in iX 11/2015