Blauer Engel für grüne Rechenzentren

Der Yellowstone-Supercomputer des NCAR-Wyoming Supercomputing Center (NWSC; Bild: UCAR)

Der Yellowstone-Supercomputer des NCAR-Wyoming Super­computing Center (NWSC; Bild: UCAR)

Die Menge der weltweit gespeicherten Daten ist in den vergangenen zwanzig Jahren um rund das Tausendfache gestiegen und wächst immer schneller. Umso wichtiger wird es, diese Daten­mengen umweltfreundlich zu verarbeiten. Im vergangenen Jahr hat das Umwelt­bundesamt daher die Kriterien des „Blauen Engels für Rechen­zentren“ gemeinsam mit Experten überarbeitet. Das Grund­konzept wurde beibehalten, neue Anforde­rungen kamen hinzu: So dürfen etwa neu beschaffte, intelli­gente Power Distribution Units (PDUs), über die auch Messwerte abgerufen werden können, nur eine Verlustleistung von maximal 0,5 Watt pro vorhandenem Stromausgang aufweisen. Verändert wurden auch die Werte für die Energy Usage Effec­tiveness (EUE), die ein Maß für die Energie­effizienz der Rechen­zentrums-Infra­struktur sind: Neue Rechen­zentren, die ab dem Jahr 2013 erst zwölf Monate oder weniger in Betrieb sind, müssen einen EUE von 1,4 erreichen. Bei älteren gilt ein EUE-Wert von 1,6 (bis fünf Jahre) oder 1,8 (älter als fünf Jahre).

Neben dem geringen Energieverbrauch ist eine klimafreundliche Kühlung des Rechenzentrums wichtig. Sie erfolgt bislang zumeist mit klima­schädlichen, teil­fluo­rierten Kohlen­wasser­stoffen (HFKW) als Kälte­mittel. Die EU hat zwar mit der Verordnung Nr. 517/2014 (F-Gase-Verordnung) eine nur stufenweise Verknappung der Verwendungs­mengen von HFKW beschlossen, diese startet aber erst 2017. Der „Blaue Engel“ fordert aber bereits jetzt, dass Kälte­anlagen, die nach dem 1. Januar 2013 in Betrieb gingen, nur noch halogenfrei kühlen. Das heißt, dass künftig beim „Blauen Engel“ nur noch Kälte­anlagen mit natürlichen Kälte­mitteln wie Kohlen­dioxid eingesetzt werden dürfen; zulässig sind natürlich auch Kühl­systeme, die ganz ohne Kältemittel auskommen, etwa Wärme­tauscher. Kleine Rechen­zentren mit einem Kälte­bedarf von maximal 50 KWh sind von den Bestim­mungen ausgenommen.

Die Effizienz der Großrechner hängt jedoch auch von den verwendeten Algorithmen ab. Wissen­schaftler des Inter­disci­plinary Centre für Security, Relia­bility and Trust (SnT) der Universität Luxemburg haben jetzt ein Verfahren entwickelt, das die Computer-gestützte Steuerung von beispielsweise intel­ligenten Strom­netze revolutionieren kann: Mit ihm können sie erheblich Mengen an Rechner­kapazitäten einsparen.

Vom Telefonnetz über Alarmanlagen bis hin zu Stromversorgungssystemen: Für die Über­wachung muss die Software ununter­brochen den aktuellen Zustand der Anlagen mit der Vergang­enheit vergleichen. Dazu misst sie kontinu­ierlich den Status quo, sammelt die Daten und analysiert sie. Das verbraucht wesentliche Teile der verfügbaren Rechner­kapazitäten. Dank des neuen Algorithmus muss die Software nun nicht mehr ununter­brochen die System­zustände der überwachten Infra­stuktur analysieren. Sie springt vielmehr für die System­analyse zwischen Zustands­werten hin und her, die zu unterschied­lichen Zeitpunkten gemessen wurden. Auf diese Weise – Wissen­schaftler sprechen von „Micro-Mining“ – können die SnT-Foscher erhebliche Mengen an Computer­kapazitäten einsparen.

„Insbesondere für den Betrieb denzentraler Einrichtungen, wie sie heute zum Beispiel Stomnetze darstellen, ist das ein Vorteil“, sagt Dr. François Fouquet, der das Projekt am SnT gemeinsam mit Dr. Jacques Klein leitet: „In diesen Smart Grids sind viele kleine Einzel­komponenten wie Solar­zellen, Gleich­richter und andere Bauteile zu steuern und zu überwachen. Damit Aufwand und Kosten wirtschaftlich vertretbar bleiben, müssen sie mit einfachen und kleinen Steuerungs­einheiten ausgestattet werden.“ Solche Klein­rechner können nicht ununterbrochen den System­zustand messen, die Daten speichern und sie in Echtzeit auswerten.

Den neuen Ansatz des SnT erläutert Thomas Hartmann, der im Rahmen des Projekts seine Dissertation anfertigt: „Unsere Software speichert die Veränderungen des System­zustands nur noch für einzelne Zeitpunkte ab. Um eine aktuelle Situation im Netz richtig bewerten zu können, identifiziert unser Algo­rithmus automatisch relevante Messwerte aus der Vergangenheit. Für die korrekte Analyse eines Jetzt-Zustands zieht es also die richtigen Messwerte aus dem Archiv – und springt dabei quasi in der Zeit hin und her. Das bedeutet eine enorme Effizien­steigerung bei gleichen Standards für Sicherheit und Verläss­lichkeit.“

Auch bei der Energieversorgung der Rechenzentren gehen die Unternehmen neue Wege. Ein neues Rechenzentrum in den USA gewinnt den Strom für seine Server komplett aus regenerativer Energie: Biogas aus einer Klär­anlage wird in Brenn­stoff­­zellen zu Strom umgesetzt. Siemens realisierte das kürzlich in Betrieb gegangene Pilot­projekt zusammen mit Microsoft und dem Unter­nehmen FuelCell Energy. Eine Anbindung an das öffentliche Stromnetz hat das Zentrum nicht. Siemens entwickelte und instal­lierte für die Anlage intel­ligente Steuerungs- und Überwachungs­technik sowie Energie­management-Software, damit die Server zu jeder Zeit stabil mit Strom versorgt sind. Die Partner wollen demonstrieren, dass sich mit intel­ligenter Hard- und Software auch kritische Instal­lationen wie Rechen­zentren mit alter­nativen Energie­quellen zuver­lässig betreiben lassen.

Die kleine Pilotanlage in Cheyenne im US-Staat Wyoming besteht aus zweihundert Servern und ist an das Superc­omputing Center der Univer­sität Wyoming angeschlossen. Das Methan zur Strom­erzeugung entsteht im Faulturm der Klär­anlage und wird an das Rechen­zentrum geleitet. Dort wandelt eine Brenn­stoff­zelle mit 300 kW Leistung das Gas elektro­chemisch und damit verbren­nungsfrei in Strom um. Das Rechen­zentrum wird von den erwarteten 250 kW erzeugten Stroms rund 100 kW selbst verbrauchen. Den Rest nutzt die Klär­anlage und senkt so ihre eigenen Strom­kosten. Für die kleine Pilot­anlage gelten die gleichen hohen Anforderungen wie für große Rechen­zentren: Die Strom­versorgung der Server muss absolut zuverlässig und unter­brechungs­frei sein, um teure Daten­verluste auszuschließen. Dazu kommen hohe Vorgaben für die Qualität der Versorgung – schon Spannungs­spitzen oder -einbrüche im Milli­sekunden­bereich können den IT-Betrieb stören. (Quellen: UBA / U. Lu. / Siemens)

Links: Chemikalien-Klimaschutzverordnung, Umweltbundesamt, Dessau-RoßlauInter­disci­plinary Centre für Security, Relia­bility and Trust (SnT), Université du Luxembourg • Elektronik & Energietechnik, Siemens Forschung & Entwicklung

Weitere Beiträge: GSI-Supercomputer ist Ener­gie­spar-Welt­meis­ter, energyviews.de, 1. Dezember 2014So sparen Rechenzentren die Hälfte an Strom, energyviews.de, 6. August 2014

 

Speak Your Mind

*