Bild 1: Anfallende Kosten für ein Rechenzentrum.

Bild 1: Anfallende Kosten für ein Rechenzentrum. James Hamiltons Blog

Die intelligente Nutzung der verfügbaren Leistung kann mit Software-Tools umgesetzt werden, die den aktuellen Verbrauch realisieren und vorrangige Aufgaben erkennen. Die Netzstromversorgung kann dann durch Batteriekapazität ergänzt werden, um Spitzenlast bereitzustellen, wobei Energie bei geringer Systemauslastung gespeichert wird. Zudem können weniger vorrangige Aufgaben an Server-Racks zugewiesen werden, die nur dann mit Strom versorgt werden, wenn genügend Kapazität vorhanden ist. Auf diese Weise kann das System auf Lastspitzen reagieren, während es andere Aufgaben zur Verteilung der Last übernimmt.

Anforderungen an die Stromversorgung in Rechenzentren

ECK-DATEN

So wie software-definierte Rechenzentren selbstverwalteten Nutzern die Bereitstellung von Diensten in Sekunden ermöglichen, sorgt die Software-definierte Stromversorgung (SDP; Software Defined Power) für die Freisetzung der im bestehenden System vorhandenen Stromkapazität. Damit lässt sich die Server-Datenverarbeitung und Speicherkapazität eines Rechenzentrums erweitern, ohne die Stromversorgungskapazität zu erhöhen, was mit beträchtlichen Investitionseinsparungen einhergehen würde und eine zu hohe Auslegung bezüglich des Strombedarfs verhindert. Darüber hinaus kann der Einsatz von Batteriekapazitäten für Peak-Shaving und Lastausgleich auch die USV-Funktion innerhalb eines Rechenzentrums oder eines Server-Racks unterstützen, um vor einem Stromausfall zu schützen.

Die Nachfrage nach Cloud-Datendiensten steigt weiter, da Unternehmen und Verbraucher immer mehr auf ferngespeicherte Daten vertrauen, auf die über das Internet von überall zugegriffen werden kann. Darüber hinaus schätzt Cisco, dass mit dem Ausbau des Internet der Dinge bis zum Jahr 2020 rund 50 Milliarden „Dinge“ mit dem Internet vernetzt sein werden, da eine Vielzahl von Sensoren und Steuerungen intelligente Häuser, Büros, Fabriken und so weiter ermöglichen. Zusammen mit ausgefeilteren Anwendungen wird bis 2018 wohl eine tägliche Netzwerkkapazität von mehr als einem Zettabyte (1021 Byte) erforderlich sein.

Diese Forderung zu bedienen und die Kapazitäten von Netzwerken und Rechenzentren zu vergrößern, ist äußerst anspruchsvoll, zumal die Anforderungen der Kunden schnell steigen können. Während die IT-Branche unter dem Druck steht, Rechenzentren zu skalieren, ist die Energie eine der am meisten eingeschränkten Ressourcen. Oftmals ist die Stromkapazität bestehender Rechenzentren weitgehend ausgeschöpft, bevor die Speicherkapazität beziehungsweise Verarbeitungskapazität ausgeht. Die beiden Hauptfaktoren dieser Stromkapazitätsbegrenzung sind die erforderliche Stromversorgungsredundanz und die Art und Weise, wie die Energie in Rechenzentren aufgeteilt wird. Beide Faktoren nehmen erheblichen Raum ein, verursachen aber auch ungenutzte beziehungweise im Leerlauf betriebene Stromkapazität – trotz der Tatsache, dass neueste Server-Designs wesentlich energieeffizienter sind als bisherige Generationen und eine deutlich niedrigere Leistungsaufnahme im Leerlauf aufweisen.

Bild 2: Eine Stromversorgungsarchitektur mit 2N-100-Prozent-Redundanz für Tier-3/-4-Rechenzentren.

Bild 2: Eine Stromversorgungsarchitektur mit 2N-100-Prozent-Redundanz für Tier-3/-4-Rechenzentren. CUI

Die Bereitstellung zusätzlicher Stromkapazitäten in einem Rechenzentrum ist zudem zeitaufwendig und teuer, selbst wenn das lokale Versorgungsunternehmen die zusätzliche Last liefern kann. Prognosen von IDC gehen davon aus, dass sich der Energiebedarf eines Rechenzentrums von 48 GW im Jahr 2015 auf 96 GW bis 2021 verdoppeln wird. Hinsichtlich der Investitionen (Bild 1) liegen die Kosten für die Stromversorgung und Kühlung eines Rechenzentrums gleich nach den Kosten für die eigentlichen Server.

Durch Cloud-Dienste kann die Last drastisch schwanken – mit einem signifikanten Unterschied zwischen dem Spitzen- und dem durchschnittlichen Leistungsbedarf eines Server-Racks. Demzufolge muss genügend Strom bereitgestellt werden, um Spitzenlastanforderungen zu bedienen. Dies führt eindeutig zu einer Unterauslastung der installierten Stromkapazität zu anderen Zeiten. Auch gering belastete Stromversorgungen sind stets weniger effizient als solche, die unter Vollastbedingungen betrieben werden. Es scheint einleuchtend, dass jede Maßnahme, die zu einer ausgeglichenen Belastung führt und die überschüssige Versorgungskapazität freisetzt, von den Betreibern der Rechenzentren begrüßt wird. Somit können sie zusätzliche Kundennachfragen bedienen, ohne dafür zusätzliche Stromkapazitäten installieren zu müssen.

Im Hinblick auf Effizienzüberlegungen nutzen Server und Server-Racks dezentrale (verteilte) Stromversorgungsarchitekturen, bei denen die Umwandlung von Wechselstrom (AC) in Gleichstrom (DC) in verschiedenen Stufen erfolgt. So kann ein Rack über eine Frontend-AC/DC-Versorgung versorgt werden, die zuerst eine 48-VDC-Stromschiene bereitstellt. Anschließend wird auf der jeweiligen Server- oder Board-Ebene ein Intermediate-Bus-Wandler (IBC) eingesetzt, der diesen Wert auf 12 VDC herabsetzt. Die letzte Wandlungsstufe stellt dann die niedrigeren Spannungen bereit, die von CPUs und anderen Vorrichtungen am Lastpunkt (POL; Point of Load) benötigt werden. Diese Stromverteilung bei höheren Spannungen sorgt für einen höheren Wirkungsgrad, um die Verluste bei der Abwärtswandlung zu minimieren. Zudem werden Widerstandsverluste in Kabeln und Leiterbahnen vermieden, die proportional zum Strom und den Leitungslängen sind.

Der seit kurzem stattfindende Übergang auf digital geregelte Stromversorgungen (Digital Power) bringt Software-Defined-Power-Techniken (SDP; Software-definierte Stromversorgung) mit sich, mit denen sich die Lasten aller Stromversorgungen überwachen und steuern lassen. Dadurch können Intermediate- und Endlast-Spannungen variieren, sodass die verschiedenen Wandlungsstufen stets effizient arbeiten können. Da weitere Verbesserungen der Hardware an ihre Grenzen stoßen, sind daher andere Lösungen erforderlich.

Das Problem der derzeitigen Energie-Bereitstellung in Rechenzentren

Herkömmliche Stromversorgungsarchitekturen für Rechenzentren sind auf hohe Verfügbarkeit mittels Versorgungsredundanz ausgelegt, damit kritische Lasten stets verarbeitet werden können. Bild 2 beschreibt eine 2N-Konfiguration, die 100 Prozent Redundanz bereitstellt, wie sie von einem Tier-3- oder Tier-4-Rechenzentrum erwartet wird. Für einen dual versorgten Server steht somit eine unabhängige Stromversorgung von getrennten Versorgungssystemen beziehungsweise Backup-Generatoren mit dem zusätzlichen Schutz redundanter, unterbrechungsfreier Stromversorgungen (USV) zur Verfügung. Auch einzelversorgte Server sind mit der Sicherheit eines Backup-Generators und einer USV ausgestattet.

Bild 3: Durch ein Leistungsprofil und den Einsatz von Batteriespeichern ist es möglich, den Spitzenbedarf mithilfe der Energie zu abzudecken, die während geringer Auslastungsperioden gespeichert wird.

Bild 3: Durch ein Leistungsprofil und den Einsatz von Batteriespeichern ist es möglich, den Spitzenbedarf mithilfe der Energie zu abzudecken, die während geringer Auslastungsperioden gespeichert wird. CUI

Dabei herrscht die falsche Annahme vor, dass alle Server einsatzkritische Aufgaben übernehmen und dass die Last jedes Servers (und damit die Stromanforderung) gleich ist. In Wirklichkeit können bis zu 30 Prozent der Server Entwicklungs- oder Testlasten handhaben, womit die Hälfte der für sie vorgesehenen Leistung nicht wirklich erforderlich ist. 15 Prozent der gesamten Leistungskapazität des Rechenzentrums sind demnach für eine Verwendung an anderer Stelle blockiert.

Das andere Problem ist, dass die Versorgungskapazität in der Regel so ausgelegt ist, dass sie ausreichende Leistung für die Spitzenauslastung der CPU bereitstellt. Die daraus resultierende Variabilität des Server-Stromverbrauchs kann durch folgende lineare Gleichung modelliert werden:

Pserver = Pidle + u(Pfull – Pidle)

wobei Pidle die im Leerlauf verbrauchte Serverleistung ist, und u die CPU-Auslastung.

Mit neuer Technik, die einen geringeren Stromverbrauch im Leerlauf ermöglicht, wird der Unterschied zwischen Leerlauf und Volllast immer wichtiger. Dies trifft umso mehr auf Rack-Ebene zu, was die Stromkapazitätsplanung auf Basis einer angenommenen CPU-Auslastung zu einer Herausforderung macht. Darüber hinaus verschärft die Art der Last die Variabilität des Stromverbrauchs. So fand Google heraus, dass das Verhältnis zwischen durchschnittlicher Leistung und gemessener Spitzenleistung für Server, die Web-Mails verwalten, 89,9 Prozent betrug, während die Websuchaktivität zu einem wesentlich niedrigeren Verhältnis von 72,7 Prozent führte. Die Bereitstellung von Stromkapazitäten, die für die Websuche gedacht sind, kann somit zu einer Unterauslastung um bis zu 17 Prozent führen.

Dies ist aber nur die eine Seite. Es bestehen Bedenken hinsichtlich der Tatsache, dass die tatsächlichen Spitzenwerte diejenigen übersteigen könnten, die modelliert wurden und möglicherweise das Netz überladen und Stromausfälle verursachen. Planer fügen dann zusätzliche Kapazitäten für einen Sicherheitspuffer hinzu. Es ist daher nicht verwunderlich, dass die durchschnittliche Auslastung in Rechenzentren weltweit unter Berücksichtigung der Spitzenbedarfsmodellierung und der zusätzlichen Pufferung weniger als 40 Prozent beträgt – und diese Zahl sinkt weiter, sobald auch die Redundanzvorkehrungen mit berücksichtigt werden.

Seite 1 von 212