
Das Spannendste an Sam Altmans großen Träumen sind zwei kleine Zahlen: 0,00034 Kilowattstunden und 0,00032 Liter. Auf seinem privaten Blog fantasiert der Chef von Open AI mal wieder von Superintelligenz und beziffert beiläufig erstmals den Ressourcenverbrauch von Chat-GPT. Angeblich benötigt eine Antwort des Chatbots im Schnitt so viel Energie wie eine moderne LED-Lampe für rund zwei Minuten Licht. Ein Teelöffel Wasser reicht demnach für rund ein Dutzend Fragen an Chat-GPT.
Altman nennt für diese Vergleichszahlen keine Quellen. Warum sollte man einem Mann vertrauen, dem nicht nur daran gelegen ist, den Ressourcenbedarf seiner KI zu beschönigen, sondern der auch zwischenzeitlich gefeuert wurde, weil er den Verwaltungsrat von Open AI bewusst angelogen haben soll?
Das Problem: Es gibt kaum verlässliche Zahlen. Alle großen Tech-Firmen, Google, Meta, Microsoft und Open AI, geben sich gern nachhaltig, machen aber ein Geheimnis daraus, wie viel Energie und Wasser ihre Sprachmodelle schlucken. Generative künstliche Intelligenz wird damit zur doppelten Blackbox. Zum einen verschweigen die Konzerne, mit welchen Daten ihre Modelle trainiert wurden. Zum anderen weiß niemand, welche Folgen die Technologie für Klima und Umwelt hat.
In den vergangenen Monaten haben Wissenschaftlerinnen und Journalisten versucht, den Ressourcenverbrauch von KI zu bestimmen. Ende Mai veröffentlichte etwa die Zeitschrift MIT Technology Review eine umfangreiche Recherche. Der Physiker Andy Masley, die Klimaforscherin Hannah Richie und der Mathematiker Arthur Clune haben ebenfalls gerechnet und sind zu ähnlichen Ergebnissen gekommen. Zudem gibt es Dutzende Studien, die allerdings oft auf älteren Modellen beruhen und nicht berücksichtigen, dass generative KI deutlich effizienter geworden ist.
Auch wenn die Intransparenz des Silicon Valley exakte Angaben erschwert, lassen die bisherigen Schätzungen einige Rückschlüsse zu. Tatsächlich decken sich Altmans Zahlen mit den Ergebnissen der unabhängigen Forscher – allerdings ignoriert der Open-AI-Chef einen wichtigen Faktor, der den Ressourcenverbrauch von KI massiv beeinflusst. Über sechs zentrale Punkte besteht dennoch ein Konsens in der Wissenschaft.
1. Ein paar Fragen an Chat-GPT sind kein Problem
Wer sich gern von Chat-GPT, Claude oder Gemini helfen lässt, muss kein schlechtes Gewissen haben. Sprachmodelle benötigen zwar mehr Energie als eine Google-Suche, trotzdem macht die individuelle Nutzung von Chatbots nur einen kleinen einstelligen Prozentanteil des gesamten Ressourcenverbrauchs von KI aus. Es gibt Dutzende Verhaltensänderungen, die mehr bewirken, als weniger Prompts zu schreiben. Für die meisten Menschen ist Chat-GPT nur ein Rundungsfehler in der persönlichen Energiebilanz.
2. Videos verbrauchen enorme Mengen Energie
Die gerade getroffene Aussage gilt für Texte und Bilder, aber ausdrücklich nicht für Videos. Insbesondere neue Modelle wie Googles Veo 3 schlucken enorm viel Energie. Bereits ein fünfsekündiges Video benötigt rund 700 Mal mehr Energie als ein einzelnes Bild. Wer regelmäßig hochauflösende Videos generieren lässt oder gar Kurzfilme mithilfe von KI produziert, vergrößert seinen ökologischen Fußabdruck signifikant.
3. Der Ressourcenverbrauch schwankt stark
Aktuelle Sprachmodelle unterscheiden sich stark in ihrer Effizienz. Je nachdem, welches Modell man fragt, kann der Ressourcenverbrauch um den Faktor zehn schwanken. Auch die Komplexität des Prompts ist wichtig. Wenn man ganze Bücher hochlädt oder Deep-Research-Funktionen nutzt, muss viel mehr gerechnet werden als bei einer simplen Frage. Zudem ist unklar, welche Modelle auf welche Rechenzentren zugreifen. Davon hängen Wasserverbrauch und Strommix ab, die wiederum maßgeblich für den CO₂-Verbrauch sind. Viele Datenzentren stehen in Regionen, die überwiegend auf fossile Energieträger wie Kohle, Gas und Öl setzen.
4. Rechenzentren werden zum Problem
Wenn Altman den Energieverbrauch einer Antwort von Chat-GPT nennt, lässt er unter den Tisch fallen, dass Open AI das Modell zuvor mit leistungsfähigen Grafikchips trainiert hat. Das geschieht in riesigen Rechenzentren, die in den USA bereits jetzt so viel Strom verbrauchen wie ganz Thailand. Davon entfallen zwischen einem Viertel und einem Drittel auf Entwicklung und Betrieb von KI-Modellen. Dieser Anteil wird stark steigen, Prognosen gehen von einer Verdreifachung bis 2028 aus. Weltweit werden neue Rechenzentren gebaut, teils ohne Rücksicht auf die Bedürfnisse der Bevölkerung. Die Kühlung der Anlagen benötigt enorme Mengen Wasser, das an den Standorten oft ohnehin knapp ist.
5. Atomkraft und fossile Energieträger kommen zurück
Erneuerbare Energien können den steigenden Bedarf der Rechenzentren nicht komplett decken. Die Computer benötigen konstante Leistung, die Wind und Sonne nicht immer liefern. Amazon, Google und Microsoft setzen deshalb seit Längerem wieder auf Atomkraft und bauen entweder neue Kernkraftwerke oder reaktivieren stillgelegte Reaktoren. Altman hat persönlich in ein Start-up für Fusionsenergie investiert. Erst vergangene Woche verkündete Meta, dass man dem Energieunternehmen Constellation Energy 20 Jahre lang Strom aus einem Kernkraftwerk abnehmen werde. Gleichzeitig setzt der Konzern auf Gaskraftwerke, die lokal auf Widerstand stoßen. Besonders rücksichtslos geht Elon Musk vor, der für sein Unternehmen xAI unter anderem ein gigantisches Rechenzentrum in Memphis errichten ließ, das von 35 Gasturbinen angetrieben wird. Die Abgase verpesten die Nachbarschaft, in der überwiegend Schwarze und ärmere Menschen leben. Viele Menschen klagen dort über Atembeschwerden und Asthma und müssen sich im Krankenhaus behandeln lassen.
6. Es gibt Hoffnung
Technologischer Fortschritt allein wird die Klimakrise nicht lösen, trotzdem gibt es positive Entwicklungen. Seit der Veröffentlichung von Chat-GPT Ende 2022 sind Sprachmodelle schneller, zuverlässiger und effizienter geworden. Für die gleichen Aufgaben benötigen sie jetzt deutlich weniger Energie. Auch die Grafikchips in den Rechenzentren und die Kühlung der Anlagen entwickeln sich schnell weiter. Dazu trägt das Eigeninteresse der Tech-Konzerne bei. Der Ressourcenverbrauch belastet nicht nur ihre Klimabilanz, sondern auch ihre Quartalsbilanz. Je weniger Energie KI verbraucht, desto mehr Geld verdienen Google, Microsoft und Open AI.