Energieverbrauch: KI ist alles andere als grün
Künstliche Intelligenz ist aus unserem Alltag nicht mehr wegzudenken. Spamfilter sortieren unerwünschte E-Mails aus. Computerprogramme generieren automatisiert Sport- und Börsenberichte. Und virtuelle Assistenten wie Siri und Alexa beantworten unsere Sprachanfragen. Doch diese smarten Helfer im Alltag haben einen ökologischen Preis: Laut einer aktuellen Studie der University of Massachusetts Amherst emittiert das Trainieren eines einzigen neuronalen Netzwerks so viel CO2 wie fünf Autos. In Zeiten, in denen die Politik kontrovers über Klimaziele diskutiert und Klimaschutz ganz oben auf der Agenda steht, sorgt so eine Meldung für Gesprächsstoff – gerade weil mit der Entwicklung künstlicher Intelligenzen auch das Versprechen eines effizienteren Ressourcenverbrauchs verknüpft ist.
Die Forscher untersuchten in ihrer Studie vier verschiedene Modelle, die Sprache verarbeiten: Solche NLP-Modelle (natural language processing) kommen im Bereich der Spracherkennung und maschinellen Übersetzung zum Einsatz. Eines davon, der Textgenerator GPT-2, schreibt angeblich so täuschend echte Geschichten, dass die Entwicklerorganisation OpenAI sogar vor seinem Gebrauch warnte.
Um den Energieverbrauch der CPU und des Grafikprozessors zu messen, wurde jedes dieser Modelle einen Tag lang trainiert. Training heißt: Man füttert ein neuronales Netz mit riesigen Datensätzen, in diesem Fall annotierten Texten und Wörtern. Aus dem Verbrauch, welche die Modelle für die einzelnen Arbeitsschritte benötigten, errechneten die Forscher den Energiebedarf für die gesamte Prozedur. Auf Basis eines Umrechnungsschlüssels der US-Umweltbehörde EPA konvertierten sie die Verbrauchs- in Emissionswerte, die ungefähr dem Energiemix von Amazon Web Services, dem größten Cloud-Computing-Anbieter, entsprechen.
Menschliche Intelligenz verbraucht viel weniger Energie
Die Ergebnisse, die die Wissenschaftler in ihrer Studie präsentieren, sind erschreckend: Beim Training eines einzigen Modells werden 313 Tonnen CO2 emittiert. Das ist ungefähr das Fünffache dessen, was ein Fahrzeug in seinem gesamten Lebenszyklus (inklusive Kraftstoff) verbraucht. Der hohe Energieverbrauch resultiert vor allem aus der Rechenpower, die für die Verarbeitung riesiger Datenmengen nötig ist. Dass (Grafik-)Prozessoren für Deep-Learning-Verfahren energieintensiv sind, ist keine neue Erkenntnis. Die Jeopardy-Version von IBMs Supercomputer Watson benötigte 85 000 Watt, um bei der Rateshow zwei menschliche Spieler zu bezwingen. Zum Vergleich: Das menschliche Gehirn benötigt gerade einmal 20 Watt. Die Dimension des Verbrauchs überrascht dann doch, zumal es weitaus trainingsintensivere Verfahren (etwa von CT-Aufnahmen im medizinischen Bereich) gibt.
Die Frage ist: Wie nachhaltig ist maschinelles Lernen? Sind Supercomputer möglichweise größere Dreckschleudern als SUVs? Schon heute verbrauchen Rechenzentren zwei Prozent des gesamten globalen Strombedarfs und emittieren so viel CO2 wie die Luftfahrtindustrie. Laut einem Bericht von »Climate Home News« könnte die Datenproduktion bis 2025 20 Prozent des weltweiten Strombedarfs ausmachen. Die Autoren fordern daher »konzertierte Aktion« von Industrie und Forschung, Computeralgorithmen energieeffizienter zu machen.
»Wenn für das Training eines neuronalen Netzes für einen Spurhalte-Assistenten für eine ganze Fahrzeugflotte eines großen Herstellers Energie in der Höhe des Verbrauchs eines Pkws aufgewendet wird und damit auch nur ein Unfall verhindert wird, wäre das energetisch schon kompensiert«Thorsten Staake
Thorsten Staake, Professor für Wirtschaftsinformatik an der Universität Bamberg und Spezialist für energieeffiziente Systeme, relativiert die Studienergebnisse. Die Kernaussage sei zwar richtig. Es handle sich aber regelmäßig um »enorm aufwändige Netze mit sehr großen Trainings- und Validierungsdatensätzen«. »Meist erbringen solche Netze anschließend Dienstleistungen für viele hunderttausend Nutzer«, erklärt Staake. Umgelegt auf die Anzahl der Nutzer seien die Energieverbräuche dann häufig alles andere als hoch. »Wenn, als Beispiel, für das Training eines neuronalen Netzes für einen Spurhalte-Assistenten für eine ganze Fahrzeugflotte eines großen Herstellers Energie in der Höhe des Verbrauchs eines Pkws aufgewendet wird und damit auch nur ein Unfall verhindert wird, wäre das energetisch schon kompensiert – vom zusätzlichen Wert für die Unfallbeteiligten ganz abgesehen.«
Grundsätzlich hält der Energieexperte solche plakativen Aussagen für begrüßenswert, um Forschung zur Entwicklung von (noch) energieeffizienteren Rechnern zu motivieren. Ein richtiges Bild vermittelten sie aber selten. »Bei rechenintensiven Aufgaben, die für sich genommen viel Energie verbrauchen können, müssen bei deren Bewertung der Nachhaltigkeit unbedingt die Anzahl der Nutzer beziehungsweise der Nutzungen gegengerechnet werden«, fordert Staake. Die Nachhaltigkeit einer KI-Anwendung hänge zudem auch vom Anwendungsfall ab.
KI kann Energieverbrauch optimieren
Google hat zum Beispiel mit seiner Tochter DeepMind ein intelligentes Steuerungssystem entwickelt, mit dem der Energieverbrauch seiner Rechenzentren laut eigenen Angaben um 40 Prozent reduziert wurde. Alle fünf Minuten macht die cloudbasierte KI einen Schnappschuss der Kühlsysteme, um anhand von Sensordaten den Luftdruck oder die Temperatur in der nächsten Stunde vorherzusagen. Die menschlichen Kontrolleure können dann an den Stellschrauben drehen, um einen möglichst verbrauchsarmen Betrieb zu gewährleisten.
Das KI-System wurde mit historischen Daten tausender Sensoren gefüttert, zum Beispiel Temperatur, Pumpengeschwindigkeit, Leistung, Rotationen pro Minute und so weiter. Das Modell wurde schließlich anhand von Live-Daten eines Rechenzentrums getestet. Selbst wenn das Training dieses Modells so viel CO2 wie eine halbe Fahrzeugflotte emittiert hätte, würden die Empfehlungen in der Ökobilanz langfristig positiv zu Buche schlagen.
Die CO2-Emissionen hängen zudem vor allem vom Energiemix des Cloud-Anbieters ab. Laut einem Bericht von Greenpeace bezieht Amazon Web Services 30 Prozent seines Energiebedarfs aus Kohleenergie. Über ein Viertel (26 Prozent) stammt aus Atomkraft. Lediglich 17 Prozent kommen aus erneuerbaren Energien. Auch Konkurrent Microsoft deckt knapp ein Drittel seines Energiebedarfs (31 Prozent) aus Kohle (wobei hier nicht nur die Cloud-Sparte Azure, sondern der ganze Konzern berechnet wurde). Der Streaming-Dienst Netflix, der ein Drittel des Internet-Traffics in den USA ausmacht, deckt seinen Energiebedarf zu 30 Prozent aus Kohle und einem Viertel aus Kernkraft. Bessere Noten erhalten Facebook, Apple und Google, die mehr als die Hälfte ihres Energiebedarfs aus erneuerbaren Energiequellen decken.
Amazon erreicht seine Klimaziele nicht
Greenpeace kritisiert, dass vor allem Amazon seine ambitionierten Klimaziele nicht erreiche und beim Betrieb seiner Rechenzentren verstärkt auf fossile Brennstoffe setzt. Das ist insofern von Relevanz, als die KI-gesteuerte Sprachsoftware Alexa in immer mehr Geräte Einzug hält und immer mehr Unternehmen (unter anderem die Deutsche Bahn und VW) ihre IT in die Amazon-Cloud auslagern.
Der Greenpeace-Bericht stellt aber vor allem den chinesischen Technologiekonzernen ein schlechtes Zeugnis aus: Sowohl der Online-Riese Tencent als auch der Suchmaschinenkonzern Baidu beziehen zwei Drittel ihrer Energie aus schmutziger Kohlekraft. Das chinesische Überwachungssystem, das mit Hilfe KI-gestützter Kameras Bürger im öffentlichen Raum screent, ist auch nicht gerade umweltfreundlich.
Cloud Computing ist nicht der einzige Klimakiller. Auch Bitcoin belastet die Umwelt. Laut einer Studie des MIT und der TU München verursacht die Digitalwährung jedes Jahr zwischen 22 und 22,9 Millionen Tonnen CO2. Das entspricht dem CO2-Ausstoß ganzer Staaten wie Jordanien oder Sri Lanka. Der Grund: Beim Schürfen (»Mining«) der Bitcoins, wie man die Ausgabe der Währungseinheiten bezeichnet, versuchen miteinander verbundene Rechnernetze, ein kompliziertes kryptografisches Rätsel zu lösen. Das verbraucht jede Menge Energie – laut den Forschern rund 46 Terawattstunden im Jahr. Die chinesische Regierung will die Strom fressenden Bitcoin-Minen im Land daher verbieten. Wäre der IT-Sektor ein Land, würde er im Energieverbrauch auf Platz drei rangieren – hinter China und den USA und weit vor Industrienationen wie Russland, Deutschland und Japan.
»Die massive globale Infrastruktur, die wir im Zuge des digitalen Kapitalismus aufbauen, benötigt eine riesige Menge Energie, um betrieben zu werden«Gary Cook
»Die massive globale Infrastruktur, die wir im Zuge des digitalen Kapitalismus aufbauen, ist wahrscheinlich die größte, die wir je als Menschen errichtet haben«, kritisiert der Greenpeace-Aktivist und IT-Analyst Gary Cook. »Es benötigt eine riesige Menge Energie, um betrieben zu werden. Und dieser Energiebedarf wird in den nächsten Jahren mit den Entwicklungen von 5G, dem Internet der Dinge, virtueller Realität und Onlinespielen dramatisch steigen.«
Wenn AWS und andere Cloud-Anbieter erneuerbare Energien nicht ins Zentrum ihrer Wachstumsstrategie rücken, werden KI und andere Technologien noch mehr fossile Brennstoffe verbrauchen, warnt Cook. Die Studienergebnisse der University of Massachusetts machten aber auch deutlich, dass durch die Optimierung der Modelle CO2-Einsparungen möglich seien. Wenn die Programmierung einer Navigations-App so viel CO2 wie fünf Autos verbraucht, durch eine intelligente Verkehrssteuerung aber Emissionen senkt, kann KI auch einen Beitrag zum Klimaschutz leisten.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.