Hochleistungsrechner im Leibniz

PICTUREDESK.COM/SZ-PHOTO/ROBERT HAAS

Punkt eins

Stromfresser KI

Der große Energiehunger von ChatGPT & Co. und wie er zu stillen wäre. Gast: Prof. Dr. Dieter Kranzlmüller, Leiter des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften, München. Moderation: Alexander Musik. Anrufe 0800 22 69 79 punkteins(at)orf.at

Das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften, eines der größten in Deutschland, verursacht eine Stromrechnung von 1.500 Euro - pro Stunde. Mit der benötigten Energie ließen sich 40.000 Haushalte versorgen, sagt dessen Leiter, Prof. Dr. Dieter Kranzlmüller. In den nächsten Jahren werde sich der Stromverbrauch des Rechenzentrums noch vervierfachen, denn gerade KI-gestützte Anwendungen seien extrem energiehungrig.

Zum Vergleich: Die Rechenzentren von Microsoft, dem Partner der ChatGPT-Entwicklerfirma Open AI, sollen 200 mal so viel Energie benötigen - so dass sogar der stillgelegte Atomreaktor Three Mile Island wieder hochgefahren werden soll, um den Energiehunger von ChatGPT zu stillen. Zusätzlich drängte Open AI die US-Regierung, fünf neue Reaktoren zu bauen, die jeweils etwa fünf Gigawatt produzieren könnten, genügend Strom für je ein Microsoft-Rechenzentrum.

Der Stromhunger der Künstlichen Intelligenz belastet die Stromnetze, verursacht mehr Treibhausgasemissionen und verschärft die Umweltprobleme, heißt es in einem Artikel des Tech-Webportals "heise online". Und weiter: "Eine einzige Anfrage an den KI-Chatbot soll 2,9 Wattstunden verbrauchen. Das sei zehnmal mehr als eine reguläre Google-Suchanfrage an Strom verbrauche - die liege nämlich bei 0,3 Wattstunden."

Der Datenwissenschaftler Alex de Vries von der Freien Universität Amsterdam hat berechnet, dass Google derzeit bis zu neun Milliarden Suchanfragen pro Tag verarbeitet. Wenn jede Google-Suche KI nutze, so de Vries, würden etwa 29,2 Terawattstunden Strom pro Jahr benötigt. Das entspreche dem jährlichen Stromverbrauch Irlands. Schon jetzt macht der Stromverbrauch von Rechenzentren in Irland übrigens 11 Prozent des Strombedarfs des ganzen Landes aus.

Damit nicht genug: Das Trainieren und Betreiben von KI-Anwendungen wie Chat GPT (aber natürlich auch konkurrierender Systeme) verbraucht auch große Mengen an Wasser - schließlich müssen die riesigen Serverfarmen ja gekühlt werden: Laut dem IT-Portal "futurezone" wurden allein für die ChatGPT-Entwicklung 10.000 Grafikkarten und 285.000 Prozessorkerne vernetzt. Jede Konversation mit der KI (25 bis 50 Fragen) verbrauche einen halben Liter Wasser.

Wie lassen sich strom- und wasserhungrige KI-Anwendungen nachhaltiger betreiben? Ist das gegenwärtige Stromnetz den Anforderungen der Rechenzentren noch gewachsen? Welche Folgen hat der KI-Boom für die Umwelt?

Alexander Musik spricht mit Prof. Dr. Dieter Kranzlmüller, Leiter des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften, München, über den stetig wachsenden Energiehunger der KI und die Möglichkeiten, Server nachhaltiger zu betreiben.

Wie immer sind Sie eingeladen, sich an der Sendung zu beteiligen. Kostenlos aus ganz Österreich können Sie uns unter 0800 22 69 79 erreichen; oder Sie schreiben uns ein Mail an punkteins(at)orf.at.

Sendereihe

Gestaltung

  • Alexander Musik