Der Einsatz von Künstlicher Intelligenz, um Unternehmen klimaneutraler zu machen, fußt auf einer Technologie, die bereits jetzt enorme Ressourcen verbraucht. Unheimlich viele setzen darauf, dass Künstliche Intelligenz ihre Prozesse dahingehend kontrolliert, dass sie klimaneutraler werden – doch für diese scheinbar gute Idee werden bereits in der Startphase enorme Mengen an Ressourcen verbraucht.
Im Oktober 2023 veröffentlichten Pengfei Li (UC Riverside), Jianyi Yang (UC Riverside), Mohammad A. Islam (UT Arlington) und Shaolei Ren (UC Riverside) ein Paper mit dem Titel „Making AI less ‚thirsty‘: Uncovering and Adressing the Secret Water Footprint of AI Models“, das von einigen Zeitungen zitiert wurde.
Aus dem Paper geht hervor, dass allein das Training von GPT-3 in den hochmodernen Rechenzentren von Microsoft 700.000 Liter sauberes Süßwasser verbraucht hat. Das hat Microsoft allerdings niemandem mitgeteilt. Es wurde außerdem berechnet, dass die globale Nachfrage nach Künstlicher Intelligenz bereits im Jahr 2027 4,2 bis 6,6 Milliarden Kubikmeter Wasser erfordern könnte. Diese Zahl wird dem jährlichen Wasserverbrauch von zwei Ländern gegenübergestellt. Es entspräche vier- bis sechsmal Dänemark oder der Hälfte des Vereinigten Königreichs. In Anbetracht der Tatsache, dass sauberes Trinkwasser vielerorts eh schon knapp ist, durchaus eine besorgniserregende Zahl.
Dazu kommt, dass GPT-3 und GPT-4 ein bis zwei Prozent des weltweiten Stromverbrauchs ausmachen. Sie verbrauchen also enorm viel Energie allein durch ihren Betrieb. Dabei wird noch außer Acht gelassen, welche Ressourcen bereits bei der Herstellung der dafür nötigen Rechenzentren und ihrer Einzelteile verbraucht werden.
Am konkreten Beispiel verbraucht GPT-3 für die durchschnittlichen zehn bis fünfzig Antworten, die nötig sind, um eine halbwegs verlässliche Information zu bekommen, einen halben Liter Wasser. Diese 500 ml Trinkwasser verdunsten für die Kühlung des Rechenzentrums allein deshalb, weil man GPT-3 Fragen stellt. Über die Qualität der Antworten ist an dieser Stelle nicht zu diskutieren. Bei GPT-4 könnten die Zahlen sogar noch höher sein. Laut einem Artikel vom 4. Oktober 2024 in der New York Times verbrauchen 100 Wörter in GTP-4 500 ml Wasser und 140 Wattstunden Strom. (Damit könnte man laut New York Times sieben mal ein iPhone Pro Max aufladen.)
Der Wasserverbrauch von Microsoft ist 2022 im Vergleich zum Vorjahr um 34 % gestiegen, der von Google um 20 %. Der Stromverbrauch der Unternehmen Google, Microsoft und Meta lässt sich im Übrigen auch aus den Nachhaltigkeitsberichten entnehmen.
Wohin verschwindet das Wasser?
Rechenzentren müssen gekühlt werden. Im Detail ist das alles auf Arcix nachzulesen, anschauliche Grafiken und Tabellen bietet das Paper auch. Der Artikel der New York Times befindet sich leider hinter einer Bezahlschranke.
In einem Paper von EPRI (The Electric Power Research Institute) wurde der Stromverbrauch erhoben und zukünftig auf Basis der bisherigen Daten errechnet. Die jährliche Menge an Strom, die ChatGPT für die Beantwortung von Eingabeaufforderungen verbraucht, beläuft sich aktuell auf 453,6 Millionen Kilowattstunden. Während eine einzelne Anfrage an Google 0,3 Wattstunden Strom verbraucht, reden wir bei ChatGPT schon von 2,9 Wattstunden. Bestbrokers hat in einer häufig in anderen Artikeln genutzten Grafik recht anschaulich aufgearbeitet, wie viel man mit dieser Strommenge tun könnte. Es handelt sich hierbei um genug Strom für 43.204 US-Haushalte, die Menge an Strom, die man benötigt, um 95,7 Millionen iPhones jeden Tag ein Jahr lang aufzuladen, die Stromversorgung von Österreich für zweieinhalb Tage oder die Menge, die man benötigt, um jedes Elektrofahrzeug in den USA zweimal zu laden.
Ob man diesen Verbrauch nun mit der Nutzung von Künstlicher Intelligenz in die Höhe treiben will, ist letztendlich eine ethische Frage, mit der man sich auseinandersetzen muss. Unser CO2-Abdruck ist bereits ohne die Nutzung von KI allein durch die Nutzung des Internets enorm hoch.
Was sehr vielen auch nicht bekannt ist: Generative KI benötigt für ihre Berechnungen hochleistungsfähige Grafikkarten, weil diese dazu in der Lage sind, in Echtzeit komplexe Berechnungen zu erstellen, die unter anderem dafür verantwortlich sind, dass wir in Computerspielen stundenlang in der jeweiligen Welt umherwandern können. Grafikkarten stellen mehrere Berechnungen gleichzeitig an und sind deshalb nötig, um genKI überhaupt erfolgreich betreiben zu können. Andernfalls würden die Antworten von Chat-Bots wie ChatGPT nämlich mehrere Minuten in Anspruch nehmen anstatt weniger Sekunden. Da aufgrund der hohen Nachfrage durch Nutzende die Rechenzentren der KI-Anbieter fortwährend ausgebaut werden müssen, erhöht sich die Nachfrage nach Grafikkarten und damit der Preis für alle, die gerade eine neue Grafikkarte für ihren heimischen Rechner haben wollen.
Die Chipkrise, inklusive des Zusammenbruchs von Lieferketten für Halbleiter und dergleichen, liegt noch nicht lange zurück und ist streng genommen noch nicht ausgestanden. Die Ursachen sind vielfältig. Beteiligt waren weltweite Konflikte, die Pandemie und das Abreißen von Lieferketten. Die Situation war dermaßen ernst, dass weltweit, innerhalb der EU und auch in Deutschland Programme aufgelegt wurden, um die Versorgung mit den für unser Leben anderweitig nötigen Computerchips zu gewährleisten. Der Ausbau von generativer KI benötigt aber ebendiese Bauteile, weil es sich um große, energiehungrige, durstige Rechenanlagen handelt.
Der Verbrauch von Ressourcen durch generative KI ist sehr hoch. Elektrizität und Wasser werden schon bei der Herstellung der Bauteile verbraucht, ebenso wird dabei CO2 freigesetzt. Die Materialien für die Computerchips müssen auch erst einmal abgebaut werden. Beim Training der KI werden, bevor sie überhaupt von der Allgemeinheit genutzt werden kann, wieder Strom und Wasser verbraucht. Die bis dato erhobenen Berechnungen rund um den Verbrauch machen deutlich, was in den nächsten Jahren auf uns zukommt.
Quellen:
Paper zu detailiertem Wasserverbrauch – PDF (EN)
Artikel: Verbrauch von ChatGPT (EN)
Paper zu Rechnenzentren (EN)
Stromverbrauch von ChatGPT (EN)
Artikel: Sind Grafikkarten für KI-Lösungen unverzichtbar?
Artikel: Die Effizienz von lokaler Künstlicher Intelligenz
Mining-Krise durch KI-Nachfrage
Artikel: KI-Boom soll hohe GPU-Preise mit sich bringen
Globale Chipknappheit (EN)
Artikel: Mikroelektronik

Die Kommentarfunktion ist deaktiviert, aber Trackbacks und Dingbacks sind offen.