Neue Anwendungen wie Kryptowährung und künstliche Intelligenz/maschinelles Lernen (KI/ML) treiben den Energieverbrauch von Rechenzentren in die Höhe, Tendenz steigend. Laut einem aktuellen Bericht der Internationalen Energieagentur (IEA) verbrauchten Rechenzentren im Jahr 2022 an die 460 TWh, was etwa 2 % des weltweiten Stromverbrauchs entspricht. In den USA, wo sich ein Drittel aller Rechenzentren der Welt befindet, liegt der Verbrauch bei 260 TWh oder 6 % des gesamten Stromverbrauchs.
Die Zukunft hängt davon ab, wie viele stromlastige Grafikprozessoren (GPU, Graphics Processor Unit) für die KI-Technik zum Einsatz kommen – und natürlich auch davon, ob weitere Klimaanlagen erforderlich sind, um die Temperatur im Zentrum zu stabilisieren. Der IEA-Bericht geht davon aus, dass der Verbrauch von Rechenzentren bis 2026 auf mindestens 650 TWh (40 %) ansteigen wird, aber auch bis zu 1050 TWh (128 %) erreichen könnte.
Das sind die stromhungrigsten KI-Anwendungen im Rechenzentrum
KI ist eine sehr energieintensive Technik und die Rechenzentren müssen über die entsprechende Rechenleistung und Energieversorgung verfügen. Immobilienknappheit und die Einschränkungen des Stromnetzes erschweren die Suche nach neuen Standorten mit ausreichender Kapazität. Deshalb bauen Betreiber von Rechenzentren nicht nur neue Anlagen, sondern treiben auch die Auslastung bestehender Anlagen voran.
Eine aktuelle Studie des schwedischen Forschungsinstituts Rise Research zeigt, wie groß dieser Wandel aufgrund der raschen Verbreitung der Technik sein wird. So erreichte ChatGPT innerhalb von fünf Tagen nach der Einführung im November 2022 eine Million Nutzer. Nach zwei Monaten waren es bereits 100 Millionen Nutzer – ein Meilenstein, für den TikTok neun Monate und Instagram zweieinhalb Jahre benötigte.
Eine Google-Suche verbraucht nur 0,28 Wh – das entspricht dem Stromverbrauch einer 60-W-Glühbirne über 17 Sekunden. Im Vergleich dazu ist das Training von GPT-4 mit 1,7 Billionen Parametern und 13 Billionen Token (Wortausschnitten) eine ganz andere Sache. Dafür waren mehrere Server mit insgesamt 25.000 A100-Grafikprozessoren von Nvidia erforderlich, wobei jeder Server etwa 6,5 kW verbrauchte. OpenAI gab an, dass das Training 100 Tage dauerte und etwa 50 GWh Energie verbrauchte – bei Kosten von 100 Millionen US-Dollar.
Wie hilft die 48-V-Architektur beim Effizienzgewinn?
In den Anfängen gab es in Rechenzentren eine zentralisierte Stromarchitektur (CPA; Central Power Architecture), bei der die Umwandlung der Netzspannung in 12 V (Busspannung) zentral erfolgte. Diese wurde dann an die Server verteilt und lokal mithilfe relativ einfacher Wandler in Logikpegel (5 oder 3,3 V) umgewandelt.
Mit steigendem Strombedarf wurden die Ströme auf dem 12-V-Bus (und die damit verbundenen Verluste) unannehmbar hoch, sodass Systementwickler gezwungen waren, auf eine 48-V-Bus-Anordnung zurückzugreifen. Das hat den Strom um den Faktor vier und die Verluste um das Quadrat dieses Faktors reduziert (Ohmsches Gesetz). Diese Anordnung war als verteilte Stromarchitektur (DPA; Distributed Power Architecture) bekannt.
Gleichzeitig sanken die Spannungen für Prozessoren und einige andere Komponenten bis auf <1-V-Niveau. Das hatte die Notwendigkeit mehrerer Sekundärschienen zur Folge und führte zur Einführung einer zweistufigen Umwandlung mit einem DC/DC-Wandler (IBC; Intermediate Bus Converter), der von 48 V auf einen 12-V-Bus umwandelt, von dem andere Spannungen je nach Bedarf abgeleitet werden.
Wohin mit der Wärme im Serverraum?
Energieverluste in einem Rechenzentrum stellen die Betreiber vor Herausforderungen. Offensichtlich bezahlen sie für Strom, der nicht dem Betrieb der Server dient. Hinzu kommt, dass jede verschwendete Energie zu Wärme wird, die dann abzuführen ist. Bei Hyperscale-KI-Servern, die derzeit einen Leistungsbedarf von 120 kW erreichen, führt selbst ein Verlust von 2,5 % bei einer Spitzenleistung von 97,5 % und einer Auslastung von 50 % zu einem Energieverlust von 1,5 kW pro Server – was dem Dauerbetrieb einer Elektroheizung entspricht.
Um die entstehende Wärme handzuhaben, lassen sich im Stromwandler Kühlkörper oder Lüfter einsetzen. Diese vergrößern das Netzteil und nehmen Platz ein, der für mehr Rechenleistung genutzt werden könnte. Lüfter verbrauchen ebenfalls Strom, was Geld kostet. Da die Temperaturen in Rechenzentren sorgfältig kontrolliert sein müssen, führen übermäßige Verluste auch zu einer Erhöhung der Umgebungstemperatur, weshalb wiederum mehr Klimaanlagen nötig sind. Die wiederum sind ein Kapital- und Betriebskostenfaktor – und verbrauchen auch Platz.
Stromsparende Mosfets sind gefragt
Die Umwandlung der Netzspannung in die für den Betrieb der KI-GPUs und anderer Komponenten erforderliche Spannung ist für Betreiber von Rechenzentren deshalb von großem Vorteil. Dementsprechend viel Arbeit wurde in die Entwicklung von Stromversorgungen gesteckt, um deren Wirkungsgrad zu steigern. So wurden Techniken wie die Totem-Pole-Leistungsfaktorkorrektur (TPPFC) in die Frontend-PFC-Stufe integriert und außerdem Diodengleichrichter durch Mosfets ersetzt. Auch Techniken wie die synchrone Gleichrichtung kamen zum Einsatz.
Ein verbessertes Schaltkreisdesign ist jedoch nur die halbe Miete. Um den Wirkungsgrad zu optimieren, müssen auch alle Komponenten so effizient wie möglich sein – insbesondere die Mosfets, die für die Stromwandlung unerlässlich sind.
Mosfets verursachen in Schaltnetzteilen zwei wesentliche Verlustarten: Leitungs- und Schaltverluste. Der Leitungsverlust entsteht durch den Widerstand zwischen Drain und Source (RDS(ON)) und tritt auf, während der Strom fließt. Der Schaltverlust entsteht durch eine Kombination aus Gate-Ladung (Qg), Ausgangsladung (QOSS) und Sperrverzögerungsladung (Qrr), die bei jedem Schaltzyklus wieder aufgefüllt werden. Da der Trend zu höheren Schaltfrequenzen geht, um die Größe der magnetischen Komponenten zu reduzieren, kann dieser Verlust mit zunehmender Häufigkeit der Auffüllung erheblich sein.
Welche Vorteile bieten PowerTrench-T10-MOSFETs?
Synchrone Gleichrichtung ist heute eine unverzichtbare Technik in allen Leistungswandlern mit hohen Strömen und niedrigen Spannungen. Dies gilt vor allem für Server in Rechenzentren. Hier wirken sich Mosfet-Parameter wie RDS(ON), Qg, QOSS und Qrr direkt auf die Wandlungseffizienz aus. Bauteilhersteller suchen deshalb nach Möglichkeiten, diese Werte zu reduzieren.
Die PowerTrench-T10-Mosfets von Onsemi erreichen mit einem abgeschirmten Gate-Trench-Design sehr niedrige Qg-Werte und einen RDS(ON) von unter 1 mΩ. Mit der Soft-Recovery-Body-Diode verringern sich nicht nur Ringing, Überschwingen und Rauschen, sondern auch die Qrr. Dies schafft einen guten Kompromiss zwischen Durchlasswiderstand und Erholungsverhalten und ermöglicht schnelles Umschalten mit geringeren Verlusten und einer guten Rückerholungscharakteristik.
Insgesamt sorgen die parametrischen Verbesserungen der Mosfets für effizientere Schaltnetzteile mit niedriger bis mittlerer Spannung und hohem Strom. Die Schaltverluste verbessern sich gegenüber Systemen der vorherigen Generation um bis zu 50 %, während sich die Leitungsverluste um 30 bis 40 % reduzieren.
Onsemi bietet eine Reihe von 40- und 80-V-PowerTrench-T10-Mosfets an. Der NTMFWS1D5N08X (80 V; 1,43 mΩ; 5 mm × 6 mm SO8-FL-Gehäuse) und der NTTFSSCH1D3N04XL (40 V; 1,3 mΩ; 3,3 mm × 3,3 mm, Source-Down-Dual-Cool-Gehäuse) für Netzteile und IBCs in KI-Rechenzentrumsanwendungen erreichen einen Wirkungsgrad von 97,5 % für Netzteile sowie 98,0 % für IBCs der Open-Rack-v3-Spezifikation.