Der ökologische Fußabdruck von KI-Systemen: Die dunkle Seite des Fortschritts
Sie sollen beim Klimaschutz helfen und beim Energiesparen. Aber KI-Systeme sind selbst außerordentliche Stromfresser. Über das Dilemma einer neuen Technologie.
Es gibt kaum einen Lebensbereich, der in den nächsten Jahren nicht durch künstliche Intelligenz verändert wird. Mit ChatGPT ist das Thema KI populär geworden, aber es ist nicht auf solche Sprachmodelle beschränkt.
KI wird in der Industrie eine Rolle spielen, in der Wettervorhersage, in der Überwachung – überall dort, wo riesige Datenmengen ausgewertet werden müssen, wird künstliche Intelligenz den Menschen unterstützen. Sie soll helfen, Energie zu sparen, industrielle Prozesse effizienter zu machen, den Ausstoß von Kohlendioxid zu verringern und uns bei der Bewältigung der Klimakrise zu unterstützen.
Die Kehrseite der Medaille ist, dass KI-Systeme selbst enorme Mengen an Energie verbrauchen, sowohl beim Lernen als auch im Betrieb. Ihr Stromverbrauch hat in den vergangenen Jahren deutlich zugenommen und wird aller Voraussicht nach in den nächsten Jahren weiter steigen.
Prognosen gibt es bisher nur für Rechenzentren, die neben KI-Systemen eine Vielzahl anderer Anwendungen beherbergen. Unternehmen lagern ihre IT in Cloud-Systeme aus, Menschen streamen Filme – alles läuft über Rechenzentren, die bislang rund ein Prozent des weltweit erzeugten Stroms verbrauchen.
Innerhalb einer Generation, so die Prognosen, könnte der Wert auf 20 Prozent ansteigen. In der Zeitschrift Spektrum hieß es einst, dass dieser Wert schon im Jahr 2025 erreicht werden könnte.
CO₂-Ausstoß wie 300 Flüge
Das Training von KI-Systemen ist besonders energieintensiv, da es auf spezieller Hardware stattfindet. Deren Herzstück sind Grafikprozessoren (GPUs) – und die sind für ihren hohen Stromverbrauch bekannt.
Bei GPT-3, dem KI-System hinter ChatGPT-3, waren 14.000 Grafikkarten zusammengeschaltet, schrieb die Süddeutsche Zeitung im April. Entsprechend viel Energie wurde für den Lernprozess benötigt.
Allein im letzten Lernzyklus seien 189 Megawattstunden (MWh) Strom verbraucht worden, heißt es in dem Bericht. Das entspricht dem Jahresverbrauch von rund 90 Single-Haushalten in Deutschland. Dabei seien rund 85 Tonnen Kohlendioxid freigesetzt worden.
Forscher der University of Massachusetts schätzten im Jahr 2019, dass bei der Entwicklung von aufwendigen KI-Modellen rund 284 Tonnen CO₂ freigesetzt werden. Das entspreche in etwa dem Ausstoß von 300 Flügen von New York nach San Francisco, erklärten sie damals.
In der Vergangenheit haben Forscher dieses Studienergebnis relativiert: Zwar würde beim Training viel Energie verbraucht, später würden die Systeme aber für mehrere hunderttausend Menschen ihren Dienst tun.
Verbrauch einer einzelnen Frage
"Umgelegt auf die Anzahl der Nutzer seien die Energieverbräuche dann häufig alles andere als hoch", hieß es in Spektrum. Doch bis heute ist nicht geklärt, wie viel Energie etwa eine einzelne Anfrage bei ChatGPT tatsächlich verbraucht.
Für die Süddeutsche Zeitung hat ein Experte das veraltete KI-Modell GPT-2 genauer unter die Lupe genommen. Eine "einzelne Anfrage von etwa 230 Wörtern" verbraucht demnach 581 Wattstunden.
Das klingt wenig – aber es kommt auf die Masse der Anfragen an. Im vergangenen November verzeichnete das System nur rund 153.000 Zugriffe – im Februar 2023 waren es mehr als eine Milliarde Anfragen.
Insgesamt ergibt das einen Stromverbrauch von 581 Gigawattstunden (GWh), was dem Jahresstromverbrauch einer Stadt mit 170.000 Einwohnern entspricht. Und einem Ausstoß von rund 244.000 Tonnen Kohlendioxid.
Die Nutzung von Künstlicher Intelligenz steckt noch in den Kinderschuhen. Mit ihr wird der Stromverbrauch zunehmen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.