Produktportfolio

  • Fachbeitrag - Delta
  • Fachbeitrag

     

    Weiterentwicklung der Rechenzentrumskühlung

    Weltweit gibt es rund 8,5 Millionen Rechenzentren. Davon befinden sich 3 Millionen in den USA, wenn auch kleinere mitgezählt werden. Somit kommt auf 100 Menschen beinahe ein Rechenzentrum. Diese Zentren machen knapp 2 % des gesamten Stromverbrauchs in den USA aus.

    Wofür wird all dieser Strom verwendet? 100 % des Stromverbrauchs der IT-Hardware wird in Wärme umgewandelt. Jedoch vertragen Server keine Wärme. Daher wird in Rechenzentren eine leistungsstarke (und zugleich effiziente) Kühlung benötigt. Die Kühlung mit konventionellen Methoden erfordert jedoch zusätzlichen Strom. Und zwar so viel Strom, dass diese Kühlung mehr als 50 % des gesamten Strombedarfs von Rechenzentren ausmachen kann.

    Somit sind Rechenzentren enorme Elektroheizgeräte. Und davon bauen wir immer mehr. Dieser Trend führt dazu, dass es für Unternehmen und sogar Länder immer schwieriger wird, Nachhaltigkeit umzusetzen. Glücklicherweise gibt es effiziente Alternativen zu herkömmlichen Kühlmethoden in Rechenzentren. Die Effizienz von Kühlsystemen in Rechenzentren wird mithilfe der Power Usage Effectiveness oder PUE erfasst. Je niedriger der PUE-Koeffizient, desto besser. Er ist das Verhältnis zwischen dem Gesamtstromverbrauch eines Rechenzentrums und der Energie zur Versorgung der IT-Hardware. Ein Wert von 2,0 gilt als Standard, 1,4 ist gut und 1,0 ist die beste erreichbare PUE-Bewertung.

    Traditionelle Methoden: Kühlung über den Doppelboden

    Im letzten halben Jahrhundert wurden die meisten Rechenzentren mit Druckluft aus einem Doppelboden gekühlt. Ein CRAC (Computer Room Air Conditioner) oder CRAH (Computer Room Air Handler) kühlt Luft, die von Lüftern mit konstanter Geschwindigkeit bewegt wird. Dieser Systemtyp funktionierte einwandfrei, als die Rechnerdichte noch niedrig war und der Effizienz noch nicht oberste Priorität zugeschrieben wurde. Im Laufe der Zeit wurden die Nachteile dieser Systeme jedoch deutlicher. Beispielsweise sind dabei PUE-Werte von über 2,0 üblich.

    Ein großes Problem bei dieser Art der Kühlung ist der Temperaturgradient vom Boden bis zu der Oberseite des Racks, der als Stratifizierung bezeichnet wird. Server in Bodennähe werden mit der kühlsten Luft versorgt, und die Server oben im Rack verzeichnen häufig eine deutlich höhere Eingangstemperatur. Wenn Sie den Luftstrom erhöhen, um diesem Problem entgegenzuwirken, sinkt die Effizienz, da die Luft nun über die Vorderseite des Server-Racks strömt und sich mit warmer Luft vermischt. Folglich wurden Strategien zur Eindämmung entwickelt, etwa Konfigurationen mit warmen/kalten Korridoren. Bei diesen Layouts wird außerdem die Rückführung reduziert, die auftritt, wenn warme Luft von der Rückseite des Servers nach vorne zurückgesaugt wird, was potenziell zu gefährlichen Gerätetemperaturen führen kann.

    Moderne, präzise Kühlungslösungen

    Seit der Zeit, in der Lüfter mit konstanter Drehzahl Luft in einen Doppelboden pusteten, hat sich die Kühltechnologie bedeutend weiterentwickelt. Diese Fortschritte sind aufgrund der heute höheren Dichte erforderlich. Durch Designs mit Kaltluftspeicherung und Abschottung von Heißluft konnten Einschränkungen wie Stratifizierung und Bypass weitgehend überwunden werden. Zusätzliche Effizienzsteigerungen werden durch in Reihe geschaltete Kühleinheiten ermöglicht. Dabei profitieren Rechenzentrumsbetreiber von Lüftern mit variabler Drehzahl in Kühleinheiten, die unmittelbar in die Reihen integriert sind, und steuern so die Temperaturen und den Energieverbrauch mit einem Höchstmaß an Präzision. Der Energieverbrauch dieser Lüfter mit variabler Drehzahl ist deutlich niedriger als bei Systemen, die Lüfter mit konstanter Geschwindigkeit verwenden.

    Der Einsatz von Economizern nimmt zu

    Es ist verwunderlich, dass nach Jahrzehnten der Rechenzentrumsentwicklung die Zukunft der Kühlung noch so offen und ungewiss ist. Zwar hat die zugrunde liegende Physik sich nicht verändert. Die Ansätze sind jedoch immer noch sehr unterschiedlich. Ein Teil davon lässt sich durch klimatische Unterschiede in den geografischen Regionen auf der ganzen Welt erklären. Eine der aussichtsreichsten Strategien, bei der Rechenzentrumskühlung Energie zu sparen, wird als „Free Cooling“ oder „Economizing“ bezeichnet. Bei diesem Ansatz wird Außenluft entweder in einem Kühlturm oder dazu verwendet, um Wärme von einem Kühlgerät abzublasen. Diese Methode hängt natürlich davon ab, ob die Lufttemperatur außerhalb des Rechenzentrums niedrig genug ist, um die erforderliche Kühlung zu gewährleisten. In kühleren Klimazonen besteht hier ein entscheidender Vorteil.

    Neben Elektrizität werden weitere Ressourcen in Rechenzentren verbraucht

    Einige alternative Methoden zur Kühlung von Rechenzentren, die Kühltürme verwenden, verbrauchen erhebliche Mengen an Wasser. Jedoch befinden sich viele Rechenzentren in Teilen der Welt, in denen Dürre herrscht. Aber auch in gemäßigten Regionen ist Wasser eine wertvolle natürliche Ressource, mit der wir stets verantwortungsbewusst umgehen sollten. Zumindest dem Anschein nach würde dies für Trockenkühlsysteme sprechen. Dabei sollte jedoch berücksichtigt werden, dass auch Kraftwerke mit fossilen Brennstoffen in der Dampfphase Wasser verbrauchen. Und zwar so viel Wasser, dass die zusätzliche Leistung, die von Trockenkühlsystemen benötigt wird, einen höheren Wasserverbrauch für die Trockenkühlung im Vergleich zu Kühltürmen vor Ort zur Folge hat.

    Frischluftkühlung lockt mit niedrigem PUE-Wert

    Sicher ist einzig, dass neue Ansätze erforderlich sind. Und davon gibt es reichlich. Ein besonders vielversprechender aber auch problematischer Ansatz nutzt frische Außenluft zur Kühlung von Rechenzentren. Mit Frischluft sind PUEs nahe 1,0 möglich, wie Yahoo mit seinem „Chicken Coop“-Design gezeigt hat. Die Frischluftzufuhr in das Rechenzentrum bringt jedoch einige Herausforderungen mit sich. Erstens müssen die Außentemperaturen niedrig genug sein, um sichere Eingangstemperaturen für die IT-Geräte zu gewährleisten. Andernfalls sind Reservekühlsysteme erforderlich. Feuchtigkeit und Staub stellen ebenfalls Herausforderungen dar.

    Wenn die Luftfeuchtigkeit im Rechenzentrum zu niedrig ist, erhöht sich das Risiko einer elektrostatischen Entladung. Aktuelle Studien schreiben elektrostatischen Entladungen jedoch ein geringeres Risiko für IT-Geräte zu. Insbesondere, wenn Server im Rack montiert sind, ist das Risiko von Schäden gering. Wenn Techniker an Geräten im Rechenzentrum arbeiten, ist es immer empfehlenswert, ein geerdetes Handgelenkband zu tragen.

    Eine zu hohe Luftfeuchtigkeit kann dagegen ein größeres Risiko darstellen. Mit zunehmender Feuchtigkeit reichern sich mehr Staubpartikel in der Luft an, die sich dann auf IT-Geräten ablagern können. Wenn sich Staubpartikel sammeln, dämmen sie Bauteile ein und erschweren so die Kühlung. Außerdem können sich Zinkpartikel über feuchte Luft auf Stromkreisen ablagern, was schließlich zu Kurzschlüssen führen kann. Daher ist bei zu feuchter Luft eine Entfeuchtung erforderlich, die wiederum Energie verbraucht und den geringen PUE-Wert weniger attraktiv macht.

    Staub und Rauch stellen weitere erhebliche Herausforderungen bei der Frischluftkühlung dar. Je nach Feinstaubgehalt der Luft können für die Frischluftkühlung teure Filter erforderlich werden. Und selbst bei guter Filterung besteht die Gefahr, dass die hochempfindlichen Brandschutzanlagen in modernen Rechenzentren durch Luftschadstoffe ausgelöst werden.

    Immersionskühlung

    Netztransformatoren benötigen eine stärkere Kühlung, als mit Luftkühlung möglich ist. Diese wird erreicht, indem die Stromkreise in eine dielektrische Flüssigkeit, im Allgemeinen Mineralöl, eingetaucht werden. Da das Öl zwar Wärme, aber keinen Strom leitet, werden die Bauteile nicht beschädigt. Auch für Server kann die Immersionskühlung eingesetzt werden. Mit dieser Methode wird Wärme wesentlich effizienter aus der Elektronik entfernt als mit Luftkühlung. Inzwischen sind Immersionskühlungslösungen von Anbietern auch für Rechenzentren verfügbar.

    Wie stark muss die Ausrüstung tatsächlich gekühlt werden?

    IT-Geräte werden gemäß den vom technischen Ausschuss der American Society of Heating, Refrigeration, and Air Conditioning Engineers (ASHRAE) definierten Klassen eingestuft. Diese Klassen (A1 bis A4) sind Teil einer Reihe von Richtlinien, die ASHRAE entwickelt hat, um optimale Temperatur- und Feuchtigkeitswerte für die Hardware von Rechenzentren zu bestimmen. A1 beschreibt den engsten zulässigen Temperaturbereich.

    Viele Hersteller von IT-Hardware stellen heute Geräte der Klasse A2 oder sogar A3 her, wodurch Rechenzentren bei der Auswahl der Kühlung flexibler sind. Daher ist es ratsam, die Kühlungsanforderungen für Ihre Geräte sorgfältig zu prüfen, anstatt lediglich die ASHRAE-Standardempfehlungen für die Klassen A1 bis A4 zu befolgen. Mit steigender Temperatur sinkt zweifellos die Zuverlässigkeit von Geräten. Die Kosten von Hardware-Ausfällen sind jedoch berechenbar. Durch die Vorhersage eines erhöhten Ausfallrisikos bei steigenden Temperaturen können die Einsparungen berechnet werden, die sich aus einer geringeren Kühlung im Vergleich zu den Kosten einer höheren Ausfallrate ergeben. Und viele Unternehmen ersetzen ihre IT-Ausrüstung bereits nach drei Jahren. In diesem Fall können die Auswirkungen höherer Temperaturen an Bedeutung verlieren.

    Effizienzsteigerung durch Experimentierfreudigkeit

    Bei den effizientesten Kühlsystemen kommt in irgendeiner Form eine freie Kühlung oder Frischluftkühlung zum Einsatz. Häufig ist CRAC als Backup erforderlich, wenn aufgrund von Umgebungsbedingungen (heiße, feuchte Sommertage) keine ausreichende Kühlung gewährleistet wird, um die Anforderungen eines Rechenzentrums zu erfüllen. Bei all diesen bahnbrechenden Designs sehen wir stets die Gebäudestruktur als Schlüsselfaktor. Die Zeiten sind vorbei, in denen Gebäude geplant werden, mit so vielen IT-Geräten wie möglich gefüllt werden und dann erst später über die Kühlung nachgedacht wird. Konzepte für neue Rechenzentren müssen von Anfang an auf die Kühlung ausgerichtet sein.

    Ein niederländisches Unternehmen hat beispielsweise ein System implementiert, das mithilfe eines großen Aluminiumrotors, der sogenannten Kyoto-Scheibe, die Wärme aus dem Gebäude ableitet. Die eine Hälfte der Scheibe befindet sich im Gebäude und die andere im Freien. Während sich die Scheibe im Inneren dreht, erwärmt sie sich, gibt die Wärme ins Freie ab und gelangt dann gekühlt zurück ins Gebäude. Die Scheibe selbst ist jedoch ziemlich groß und benötigt viel Platz für die Innen- und Außenbereiche, durch die sie sich dreht.

    Eine weitere Möglichkeit besteht darin, die Abwärme nicht einfach in die Umwelt abzuführen, sondern optimal zu nutzen. Es gibt bereits Projekte, bei denen Rechenzentren in Fernwärme- und Kühlsysteme integriert wurden. Auf diese Weise wird die Abwärme aus dem Rechenzentrum zum Erhitzen von Wohnhäusern verwendet. Dabei handelt es sich um das wohl nachhaltigste Beispiel. Auch Fernkältesysteme bieten eine sehr effiziente Möglichkeit zum Kühlen von Rechenzentren. Aktuell vollziehen sich zahlreiche interessante Entwicklungen, in deren Rahmen durch eine hohe Kühleffizienz entscheidende Wettbewerbsvorteile erzielt werden könnten. Doch die Frage, wie diese Effizienz sich am besten umsetzen lässt, ist noch nicht beantwortet.

    top