KI-Boom treibt Energieverbrauch in die Höhe und belastet Stromnetze
KI-Boom lässt Energieverbrauch von Rechenzentren explodieren. Stromnetze ächzen unter der Last. Forscher warnen: Dekarbonisierungsziele in Gefahr.
Der Boom der künstlichen Intelligenz hat sich so stark auf die großen Technologieunternehmen ausgewirkt, dass ihr Energieverbrauch und damit auch ihre Kohlenstoffemissionen in die Höhe geschnellt sind.
Der spektakuläre Erfolg von großen Sprachmodellen wie ChatGPT hat dazu beigetragen, den Energiebedarf in die Höhe zu treiben. Mit 2,9 Wattstunden pro ChatGPT-Anfrage verbrauchen KI-Anfragen etwa zehnmal so viel Strom wie herkömmliche Google-Anfragen, so das Electric Power Research Institute, ein gemeinnütziges Forschungsunternehmen. Neu entstehende KI-Funktionen wie Audio- und Videogenerierung werden diesen Energiebedarf wahrscheinlich noch erhöhen.
Der Energiebedarf der KI verändert das Kalkül der Energieunternehmen. Sie prüfen nun bisher unhaltbare Optionen, wie die Wiederinbetriebnahme eines Kernreaktors im Kraftwerk Three Mile Island.
Datenzentren wachsen seit Jahrzehnten kontinuierlich, aber das Ausmaß des Wachstums in der noch jungen Ära der großen Sprachmodelle ist außergewöhnlich. Die künstliche Intelligenz erfordert viel mehr Rechen- und Datenspeicherressourcen, als das Wachstum der Rechenzentren in der Zeit vor der künstlichen Intelligenz bieten konnte.
KI und das Stromnetz
Dank der KI steht das Stromnetz, das vielerorts bereits an seine Kapazitätsgrenzen stößt oder mit Stabilitätsproblemen zu kämpfen hat, unter größerem Druck als zuvor. Außerdem gibt es eine erhebliche Verzögerung zwischen dem Wachstum der Datenverarbeitung und dem Wachstum des Stromnetzes. Der Bau von Rechenzentren dauert ein bis zwei Jahre, während die Einspeisung neuer Energie in das Stromnetz mehr als vier Jahre in Anspruch nimmt.
Wie aus einem kürzlich erschienenen Bericht des Electric Power Research Institute hervorgeht, befinden sich 80 Prozent der Rechenzentren in den USA in nur 15 Bundesstaaten. In einigen Staaten – wie Virginia, der Heimat von Data Center Alley – werden erstaunlicherweise über 25 Prozent des Stroms von Rechenzentren verbraucht. In anderen Teilen der Welt gibt es ähnliche Trends zum Wachstum von Rechenzentren. Irland zum Beispiel hat sich zu einer Rechenzentrumsnation entwickelt.
Neben der Notwendigkeit, mehr Strom zu erzeugen, um dieses Wachstum aufrechtzuerhalten, haben fast alle Länder Dekarbonisierungsziele. Das bedeutet, dass sie sich bemühen, mehr erneuerbare Energiequellen in das Netz zu integrieren. Erneuerbare Energien wie Wind und Sonne sind unstetig: Der Wind weht nicht immer und die Sonne scheint nicht immer. Der Mangel an billigen, umweltfreundlichen und skalierbaren Energiespeichern bedeutet, dass das Netz vor einem noch größeren Problem steht, Angebot und Nachfrage aufeinander abzustimmen.
Zu den weiteren Herausforderungen für das Wachstum von Rechenzentren gehört der zunehmende Einsatz von Wasserkühlung aus Effizienzgründen, der die begrenzten Süßwasserquellen belastet. Infolgedessen wehren sich einige Gemeinden gegen neue Investitionen in Rechenzentren.
Bessere Technik
Es gibt mehrere Möglichkeiten, wie die Branche diese Energiekrise bewältigen kann. Erstens ist die Computerhardware im Laufe der Jahre wesentlich energieeffizienter geworden, was die ausgeführten Operationen pro verbrauchtem Watt angeht. Die Stromverbrauchseffizienz von Rechenzentren, eine Kennzahl, die das Verhältnis zwischen dem Stromverbrauch für die Datenverarbeitung und dem für die Kühlung und andere Infrastrukturen angibt, wurde auf durchschnittlich 1,5 und in modernen Einrichtungen sogar auf beeindruckende 1,2 gesenkt. Neue Rechenzentren verfügen über eine effizientere Kühlung, indem sie Wasserkühlung und externe Kühlluft verwenden, wenn diese verfügbar ist.
Leider lässt sich das Nachhaltigkeitsproblem mit Effizienz allein nicht lösen. Das Jevons'sche Paradoxon weist darauf hin, dass Effizienz auf lange Sicht zu einem höheren Energieverbrauch führen kann. Ferner haben sich die Effizienzsteigerungen bei der Hardware erheblich verlangsamt, da die Industrie an die Grenzen der Skalierung der Chiptechnologie gestoßen ist.
Um die Effizienz weiter zu verbessern, entwickeln Forscher spezielle Hardware wie Beschleuniger, neue Integrationstechnologien wie 3D-Chips und neue Chip-Kühltechniken.
In ähnlicher Weise untersuchen und entwickeln die Forscher zunehmend Kühltechnologien für Rechenzentren. Der Bericht des Electric Power Research Institute befürwortet neue Kühlmethoden wie die luftunterstützte Flüssigkeitskühlung und die Tauchkühlung. Während die Flüssigkeitskühlung bereits Einzug in die Rechenzentren gehalten hat, wird die noch in der Entwicklung befindliche Tauchkühlung erst in wenigen neuen Rechenzentren eingesetzt.
Flexible Zukunft
Eine neue Art des Aufbaus von KI-Rechenzentren ist das flexible Computing, bei dem der Grundgedanke darin besteht, mehr zu rechnen, wenn der Strom billiger, verfügbarer und umweltfreundlicher ist, und weniger, wenn er teurer, knapper und umweltschädlicher ist.
Die Betreiber von Rechenzentren können ihre Anlagen so umbauen, dass sie eine flexible Last im Netz darstellen. Die Wissenschaft und die Industrie haben bereits erste Beispiele für die Nachfragesteuerung von Rechenzentren geliefert, bei der die Rechenzentren ihre Leistung je nach Bedarf des Stromnetzes regulieren. So können sie beispielsweise bestimmte Rechenaufgaben für Zeiten außerhalb der Spitzenlastzeiten planen.
Die Umsetzung einer breiteren und umfassenderen Flexibilität beim Stromverbrauch erfordert Innovationen bei der Hardware, der Software und der Koordinierung zwischen Netz und Rechenzentrum. Vor allem im Bereich der künstlichen Intelligenz gibt es noch viel Spielraum für die Entwicklung neuer Strategien zur Anpassung der Rechenlasten und damit des Energieverbrauchs von Rechenzentren. So können Rechenzentren etwa die Genauigkeit beim Training von KI-Modellen reduzieren, um die Arbeitslast zu verringern.
Die Verwirklichung dieser Vision erfordert eine bessere Modellierung und Vorhersage. Rechenzentren können versuchen, ihre Lasten und Bedingungen besser zu verstehen und vorherzusagen. Es ist auch wichtig, die Netzlast und das Wachstum vorherzusagen.
Die Lastprognose-Initiative des Electric Power Research Institute umfasst Aktivitäten, die bei der Netzplanung und dem Netzbetrieb helfen. Umfassende Überwachung und intelligente Analysen – möglicherweise auf der Grundlage von KI – sowohl für Rechenzentren als auch für das Stromnetz sind für genaue Prognosen unerlässlich.
Am Rande
Die USA befinden sich mit dem explosionsartigen Wachstum der KI an einem kritischen Punkt. Es ist immens schwierig, Hunderte Megawatt Stromnachfrage in bereits überlastete Netze zu integrieren. Es könnte an der Zeit sein, die Art und Weise, wie die Branche Rechenzentren baut, zu überdenken.
Eine Möglichkeit ist der nachhaltige Bau von mehr Edge-Rechenzentren – kleineren, weit verteilten Einrichtungen -, um die Datenverarbeitung in die lokalen Gemeinden zu bringen. Edge-Rechenzentren können auch dichte, städtische Regionen zuverlässig mit Rechenleistung versorgen, ohne das Netz weiter zu belasten. Während diese kleineren Zentren derzeit 10 Prozent der Rechenzentren in den USA ausmachen, gehen Analysten davon aus, dass der Markt für kleinere Edge-Rechenzentren in den nächsten fünf Jahren um über 20 Prozent wachsen wird.
Neben der Umwandlung von Rechenzentren in flexible und steuerbare Lasten können Innovationen im Bereich der Edge-Rechenzentren den Energiebedarf von KI wesentlich nachhaltiger gestalten.
Ayse Coskun ist Professorin für Elektrotechnik und Computertechnik an der Boston University.
Dieser Artikel wurde von The Conversation unter einer Creative-Commons-Lizenz neu veröffentlicht. Lesen Sie den Originalartikel. Übersetzer: Bernd Müller
Anmerkung der Redaktion: In einer älteren Fassung des Textes hieß es, das KKW Three Mile Island sei 1979 stillgelegt worden. Das ist nicht korrekt. Damals wurde nur die Unit 2 stillgelegt. Unit 1 lief bis 2019.