Figure-4

Bild 4: CUIs Rack-ICE-Hardware für intelligentes Schalten und Batteriespeicherung. (Bild: CUI)

| von Mark Adams
Figure-1

Bild 1: Anfallende Kosten für ein Rechenzentrum. James Hamiltons Blog

Die intelligente Nutzung der verfügbaren Leistung kann mit Software-Tools umgesetzt werden, die den aktuellen Verbrauch realisieren und vorrangige Aufgaben erkennen. Die Netzstromversorgung kann dann durch Batteriekapazität ergänzt werden, um Spitzenlast bereitzustellen, wobei Energie bei geringer Systemauslastung gespeichert wird. Zudem können weniger vorrangige Aufgaben an Server-Racks zugewiesen werden, die nur dann mit Strom versorgt werden, wenn genügend Kapazität vorhanden ist. Auf diese Weise kann das System auf Lastspitzen reagieren, während es andere Aufgaben zur Verteilung der Last übernimmt.

Anforderungen an die Stromversorgung in Rechenzentren

ECK-DATEN

So wie software-definierte Rechenzentren selbstverwalteten Nutzern die Bereitstellung von Diensten in Sekunden ermöglichen, sorgt die Software-definierte Stromversorgung (SDP; Software Defined Power) für die Freisetzung der im bestehenden System vorhandenen Stromkapazität. Damit lässt sich die Server-Datenverarbeitung und Speicherkapazität eines Rechenzentrums erweitern, ohne die Stromversorgungskapazität zu erhöhen, was mit beträchtlichen Investitionseinsparungen einhergehen würde und eine zu hohe Auslegung bezüglich des Strombedarfs verhindert. Darüber hinaus kann der Einsatz von Batteriekapazitäten für Peak-Shaving und Lastausgleich auch die USV-Funktion innerhalb eines Rechenzentrums oder eines Server-Racks unterstützen, um vor einem Stromausfall zu schützen.

Die Nachfrage nach Cloud-Datendiensten steigt weiter, da Unternehmen und Verbraucher immer mehr auf ferngespeicherte Daten vertrauen, auf die über das Internet von überall zugegriffen werden kann. Darüber hinaus schätzt Cisco, dass mit dem Ausbau des Internet der Dinge bis zum Jahr 2020 rund 50 Milliarden „Dinge“ mit dem Internet vernetzt sein werden, da eine Vielzahl von Sensoren und Steuerungen intelligente Häuser, Büros, Fabriken und so weiter ermöglichen. Zusammen mit ausgefeilteren Anwendungen wird bis 2018 wohl eine tägliche Netzwerkkapazität von mehr als einem Zettabyte (1021 Byte) erforderlich sein.

Diese Forderung zu bedienen und die Kapazitäten von Netzwerken und Rechenzentren zu vergrößern, ist äußerst anspruchsvoll, zumal die Anforderungen der Kunden schnell steigen können. Während die IT-Branche unter dem Druck steht, Rechenzentren zu skalieren, ist die Energie eine der am meisten eingeschränkten Ressourcen. Oftmals ist die Stromkapazität bestehender Rechenzentren weitgehend ausgeschöpft, bevor die Speicherkapazität beziehungsweise Verarbeitungskapazität ausgeht. Die beiden Hauptfaktoren dieser Stromkapazitätsbegrenzung sind die erforderliche Stromversorgungsredundanz und die Art und Weise, wie die Energie in Rechenzentren aufgeteilt wird. Beide Faktoren nehmen erheblichen Raum ein, verursachen aber auch ungenutzte beziehungweise im Leerlauf betriebene Stromkapazität – trotz der Tatsache, dass neueste Server-Designs wesentlich energieeffizienter sind als bisherige Generationen und eine deutlich niedrigere Leistungsaufnahme im Leerlauf aufweisen.

Figure-2

Bild 2: Eine Stromversorgungsarchitektur mit 2N-100-Prozent-Redundanz für Tier-3/-4-Rechenzentren. CUI

Die Bereitstellung zusätzlicher Stromkapazitäten in einem Rechenzentrum ist zudem zeitaufwendig und teuer, selbst wenn das lokale Versorgungsunternehmen die zusätzliche Last liefern kann. Prognosen von IDC gehen davon aus, dass sich der Energiebedarf eines Rechenzentrums von 48 GW im Jahr 2015 auf 96 GW bis 2021 verdoppeln wird. Hinsichtlich der Investitionen (Bild 1) liegen die Kosten für die Stromversorgung und Kühlung eines Rechenzentrums gleich nach den Kosten für die eigentlichen Server.

Durch Cloud-Dienste kann die Last drastisch schwanken – mit einem signifikanten Unterschied zwischen dem Spitzen- und dem durchschnittlichen Leistungsbedarf eines Server-Racks. Demzufolge muss genügend Strom bereitgestellt werden, um Spitzenlastanforderungen zu bedienen. Dies führt eindeutig zu einer Unterauslastung der installierten Stromkapazität zu anderen Zeiten. Auch gering belastete Stromversorgungen sind stets weniger effizient als solche, die unter Vollastbedingungen betrieben werden. Es scheint einleuchtend, dass jede Maßnahme, die zu einer ausgeglichenen Belastung führt und die überschüssige Versorgungskapazität freisetzt, von den Betreibern der Rechenzentren begrüßt wird. Somit können sie zusätzliche Kundennachfragen bedienen, ohne dafür zusätzliche Stromkapazitäten installieren zu müssen.

Im Hinblick auf Effizienzüberlegungen nutzen Server und Server-Racks dezentrale (verteilte) Stromversorgungsarchitekturen, bei denen die Umwandlung von Wechselstrom (AC) in Gleichstrom (DC) in verschiedenen Stufen erfolgt. So kann ein Rack über eine Frontend-AC/DC-Versorgung versorgt werden, die zuerst eine 48-VDC-Stromschiene bereitstellt. Anschließend wird auf der jeweiligen Server- oder Board-Ebene ein Intermediate-Bus-Wandler (IBC) eingesetzt, der diesen Wert auf 12 VDC herabsetzt. Die letzte Wandlungsstufe stellt dann die niedrigeren Spannungen bereit, die von CPUs und anderen Vorrichtungen am Lastpunkt (POL; Point of Load) benötigt werden. Diese Stromverteilung bei höheren Spannungen sorgt für einen höheren Wirkungsgrad, um die Verluste bei der Abwärtswandlung zu minimieren. Zudem werden Widerstandsverluste in Kabeln und Leiterbahnen vermieden, die proportional zum Strom und den Leitungslängen sind.

Der seit kurzem stattfindende Übergang auf digital geregelte Stromversorgungen (Digital Power) bringt Software-Defined-Power-Techniken (SDP; Software-definierte Stromversorgung) mit sich, mit denen sich die Lasten aller Stromversorgungen überwachen und steuern lassen. Dadurch können Intermediate- und Endlast-Spannungen variieren, sodass die verschiedenen Wandlungsstufen stets effizient arbeiten können. Da weitere Verbesserungen der Hardware an ihre Grenzen stoßen, sind daher andere Lösungen erforderlich.

Das Problem der derzeitigen Energie-Bereitstellung in Rechenzentren

Herkömmliche Stromversorgungsarchitekturen für Rechenzentren sind auf hohe Verfügbarkeit mittels Versorgungsredundanz ausgelegt, damit kritische Lasten stets verarbeitet werden können. Bild 2 beschreibt eine 2N-Konfiguration, die 100 Prozent Redundanz bereitstellt, wie sie von einem Tier-3- oder Tier-4-Rechenzentrum erwartet wird. Für einen dual versorgten Server steht somit eine unabhängige Stromversorgung von getrennten Versorgungssystemen beziehungsweise Backup-Generatoren mit dem zusätzlichen Schutz redundanter, unterbrechungsfreier Stromversorgungen (USV) zur Verfügung. Auch einzelversorgte Server sind mit der Sicherheit eines Backup-Generators und einer USV ausgestattet.

Figure-3

Bild 3: Durch ein Leistungsprofil und den Einsatz von Batteriespeichern ist es möglich, den Spitzenbedarf mithilfe der Energie zu abzudecken, die während geringer Auslastungsperioden gespeichert wird. CUI

Dabei herrscht die falsche Annahme vor, dass alle Server einsatzkritische Aufgaben übernehmen und dass die Last jedes Servers (und damit die Stromanforderung) gleich ist. In Wirklichkeit können bis zu 30 Prozent der Server Entwicklungs- oder Testlasten handhaben, womit die Hälfte der für sie vorgesehenen Leistung nicht wirklich erforderlich ist. 15 Prozent der gesamten Leistungskapazität des Rechenzentrums sind demnach für eine Verwendung an anderer Stelle blockiert.

Das andere Problem ist, dass die Versorgungskapazität in der Regel so ausgelegt ist, dass sie ausreichende Leistung für die Spitzenauslastung der CPU bereitstellt. Die daraus resultierende Variabilität des Server-Stromverbrauchs kann durch folgende lineare Gleichung modelliert werden:

Pserver = Pidle + u(Pfull – Pidle)

wobei Pidle die im Leerlauf verbrauchte Serverleistung ist, und u die CPU-Auslastung.

Mit neuer Technik, die einen geringeren Stromverbrauch im Leerlauf ermöglicht, wird der Unterschied zwischen Leerlauf und Volllast immer wichtiger. Dies trifft umso mehr auf Rack-Ebene zu, was die Stromkapazitätsplanung auf Basis einer angenommenen CPU-Auslastung zu einer Herausforderung macht. Darüber hinaus verschärft die Art der Last die Variabilität des Stromverbrauchs. So fand Google heraus, dass das Verhältnis zwischen durchschnittlicher Leistung und gemessener Spitzenleistung für Server, die Web-Mails verwalten, 89,9 Prozent betrug, während die Websuchaktivität zu einem wesentlich niedrigeren Verhältnis von 72,7 Prozent führte. Die Bereitstellung von Stromkapazitäten, die für die Websuche gedacht sind, kann somit zu einer Unterauslastung um bis zu 17 Prozent führen.

Dies ist aber nur die eine Seite. Es bestehen Bedenken hinsichtlich der Tatsache, dass die tatsächlichen Spitzenwerte diejenigen übersteigen könnten, die modelliert wurden und möglicherweise das Netz überladen und Stromausfälle verursachen. Planer fügen dann zusätzliche Kapazitäten für einen Sicherheitspuffer hinzu. Es ist daher nicht verwunderlich, dass die durchschnittliche Auslastung in Rechenzentren weltweit unter Berücksichtigung der Spitzenbedarfsmodellierung und der zusätzlichen Pufferung weniger als 40 Prozent beträgt – und diese Zahl sinkt weiter, sobald auch die Redundanzvorkehrungen mit berücksichtigt werden.

Nicht genutzte Stromkapazitäten freisetzen

Das Spitzen-zu-Durchschnittsleistungsverhältnis nimmt eine beträchtliche Menge an Stromkapazität in Anspruch. Tritt ein Spitzenbedarf zu vorhersehbaren Zeiten auf und dauert er relativ lange an, nutzen Rechenzentren lokale Stromerzeugungsanlagen, um ihre Netzversorgung zu ergänzen – ähnlich wie Stromversorger ihre Stromerzeugung im Laufe des Tages hoch- und runterfahren, um die erwartete Nachfrage von Verbrauchern und Unternehmen zu decken.

Leider löst die zusätzliche Stromerzeugung nicht das Problem, dass Spitzlasten aus einer dynamischen CPU-Auslastung resultieren, die sich durch ein höheres Spitzen-zu-Durchschnittsleistungsverhältnis auszeichnen, das von kürzerer Dauer ist und häufiger auftritt. Hierfür ist die Batteriespeicherung gedacht. Das Prinzip ist einfach: die Batterien liefern Strom, wenn die Nachfrage Spitzenwerte erreicht und werden in Zeiten mit niedrigerer Auslastung wieder aufgeladen. Dieser Ansatz, der als Peak Shaving bezeichnet wird, ist in Bild 3 dargestellt. Ein Server-Rack, das normalerweise 16 kW Leistung erfordern würde, kann mit 8 bis 10 kW Leistung betrieben werden. Falls die Netzstromversorgung eingeschränkt ist, könnte der Leistungsanstieg von 8 auf 10 kW mit lokal erzeugtem Strom abgedeckt werden, wobei die Netzstromversorgung bei konstant 8 kW verbleibt.

Optimierung durch dynamische Redundanz

Figure-4

Bild 4: CUIs Rack-ICE-Hardware für intelligentes Schalten und Batteriespeicherung. CUI

Die falsche Annahme, dass alle Server in Tier-3-/4-Rechenzentren kritische Auslastungen handhaben, lässt sich durch die Zuordnung nicht-kritischer Aufgaben an bestimmte Server-Racks mit niedriger Priorität mindern. Dadurch kann zusätzliche Serverkapazität im Rechenzentrum installiert werden – bis zu einer durch die maximale nicht-kritische Last definierten Grenze. So können in einem kompletten Rechenzentrum, in dem die maximale Server-Rack-Last von 400 kW für alle Racks eine Dual-400kW-Versorgung erfordert (um 100 Prozent Redundanz zu bieten), zusätzliche Server-Racks mit geringer Priorität zur Verfügung gestellt werden, um zum Beispiel 100 kW für eine nicht-kritische Last bereitzustellen. Wenn eine der 400-kW-Stromversorgungen ausfällt, wird die Stromversorgung für die Server-Racks mit niedriger Priorität unterbrochen, um sicherzustellen, dass die kritischen Baugruppenträger die volle Leistung der alternativen 400-kW-Versorgung erhalten.

Durch intelligentes Lastmanagement können so redundante Versorgungskapazitäten, die keinen Zusatzwert bieten, freigesetzt werden, um die Belastbarkeit eines Rechenzentrums signifikant zu erhöhen – in diesem Fall um 25 Prozent ohne die Notwendigkeit, mehr Strom bereitstellen zu müssen. Auch hier kann eine kombinierte Software- und Hardware-Lösung dieses dynamische Management von Stromversorgung, Überwachung und Erkennung einer Versorgungsunterbrechung sowie sofortiges Umschalten auf die alternative Versorgung bereitstellen. Damit wird der weitere Betrieb unternehmenskritischer Server-Racks garantiert.

Intelligent Control of Energy (ICE)

CUI hat zusammen mit Virtual Power Systems das Peak-Shaving-Konzept in Form einer SDP-Lösung für IT-Systeme eingeführt. Das Intelligent Control of Energy (ICE) -System basiert auf einer Kombination aus Hardware und Software, um die Auslastung zu maximieren und die Leistungsfähigkeit zu optimieren. Die Hardware besteht aus verschiedenen Modulen, einschließlich Rack-Mount-Batteriespeicher und Schalteinheiten, die an den verschiedenen Leistungsteuerungspunkten im Rechenzentrum platziert werden, um Softwareentscheidungen über die Stromversorgung zu unterstützen. Die ICE-Software besteht aus einem Betriebssystem, das Telemetriedaten vom ICE-System und anderer Infrastrukturhardware sammelt, um eine Echtzeitsteuerung mithilfe von Optimierungsalgorithmen zu ermöglichen.

Figure-5

Bild 5: Wertschöpfung durch die Installation eines ICE-Systems, das ungenutzte Leistung freisetzt. CUI

Die Vorteile des Systems veranschaulicht Bild 5: ein ICE-Systemversuch in einem führenden Rechenzentrum, das 16 MW Leistung aus einer installierten Leistung von 80 MW zusätzlich ausgeschöpft werden konnten. Dieses Upgrade nahm nur einen Bruchteil der Zeit in Anspruch, die nötig gewesen wäre, um zusätzliche 16 MW Versorgungskapazität zu installieren – und das zu einem Viertel der Investitionskosten – ganz zu schweigen vom Vorteil geringerer laufender Betriebskosten.

Fazit

Die Erweiterung der Kapazität von Rechenzentren, um die wachsende Nachfrage nach Cloud-Diensten und Datenspeicherung zu bewältigen, kann durch die ursprünglich verfügbare Leistung oft eingeschränkt sein. Manchmal kann dies sogar an bestimmten Orten zu Einschränkungen im Versorgungsnetz führen – aber selbst wenn dies nicht der Fall ist, kann das Hinzufügen weiterer Server-Racks eingeschränkt sein. Die Bereitstellung zusätzlicher Stromkapazität ist teuer, mehr noch als die Kosten für das Hinzufügen von Servern, sodass alle Mittel zur besseren Nutzung bestehender Stromquellen ausgeschöpft werden müssen.

Mit seiner der Intelligent Control of Energy (ICE) Lösung bieten Virtual Power Systems zusammen mit CUI eine komplette Power-Management-Lösung für Rechenzentren, Netzwerk- und IT-Infrastruktursysteme an. Damit wird die Kapazitätsausnutzung durch Peak Shaving maximiert, was redundante Kapazität freigibt, wenn keine unternehmenskritischen Aufgaben erledigt werden müssen. Entscheidend ist, dass die Schaltmodule und Lithium-Ionen-Batteriespeichermodule sowohl in bestehenden als auch in neuen Rechenzentren problemlos eingesetzt werden können, was eine drastische Minderung der Gesamtbetriebskosten um bis zu 50 Prozent ermöglicht.

Mark Adams

Senior Vice President, CUI Inc.

(jj)

Kostenlose Registrierung

*) Pflichtfeld

Sie sind bereits registriert?