KI gewinnt, wer Energie kontrolliert

Bei einer Schulung letzte Woche stellte eine Teilnehmerin eine Frage, für die ich kurzfristig keine befriedigende Antwort hatte: Wie steht es eigentlich um die Energiekosten von KI?

Bisher liess sich das noch gut wegargumentieren. Eine KI-Suche verbraucht zwar mehr Strom als eine klassische Google-Anfrage, führt aber schneller zum Ziel — weniger Klicks, weniger Nachrecherche, weniger Gesamtaufwand. Energetisch vielleicht neutral, unter Umständen sogar besser.

Mit den neuen Reasoning-Modellen und KI-Agenten, die eigenständig Aufgaben durchdenken und schrittweise ausführen, gilt dieses Argument definitiv nicht mehr. Ein Agent, der eine komplexe Aufgabe über mehrere Minuten bearbeitet, erzeugt eine völlig andere Energielast als eine Suchanfrage. Das ist kein Randproblem — es ist das schmutzige Geheimnis hinter dem aktuellen KI-Boom.

Was heute als Softwareinnovation erscheint, ist längst eine Industriefrage. Rechenzentren verbrauchen weltweit bereits hunderte Terawattstunden pro Jahr — mit weiter steigender Tendenz. Ein Rechenzentrum läuft 24 Stunden am Tag, 365 Tage im Jahr. Das ähnelt eher einem Aluminiumwerk als einer IT-Abteilung.

Training ist das falsche Problem

In der öffentlichen Debatte dreht sich vieles um das Training grosser Modelle. Das klingt spektakulär, ist aber ökonomisch selten der limitierende Faktor. Der eigentliche Engpass ist der laufende Betrieb — kontinuierlich, nicht verhandelbar, wachsend. Wer die KI-Diskussion auf Modellgenerationen reduziert, denkt im falschen Rhythmus.

Effizienz als Ablenkung

Bessere Chips senken den Verbrauch pro Recheneinheit. Doch wenn die Nutzung schneller wächst als die Effizienz steigt — was historisch regelmässig eintritt —, nimmt der absolute Bedarf trotzdem zu. Günstigere Kosten pro Einheit erzeugen mehr Nachfrage, mehr Nachfrage erhöht die Gesamtlast. Effizienzversprechen sind kein Ausweg. Sie sind Beruhigungsmittel.

Hinzu kommt: Rechenzentren entstehen in wenigen Jahren. Kraftwerke und Netzausbau dauern deutlich länger. Wer dieses Missverhältnis ignoriert, redet sich die Situation schön.

Wer zahlt, wird nicht gefragt

Die Kosten verschwinden nicht. Sie werden verteilt — nur nicht an die, die sie verursachen. Der Netzausbau, den neue Rechenzentren erzwingen, wird über Netzentgelte auf alle Stromkunden umgelegt. Die CO₂-Emissionen treffen die Allgemeinheit. Die Standortentscheidungen fallen in Vorstandsetagen, weitgehend ohne öffentliche Debatte. Energieversorger, Netzbetreiber und Regulierer werden zu stillen Mitautoren der KI-Ökonomie — niemand hat sie dafür gewählt.

Die Teilnehmerin in der Schulung hat mit ihrer Frage etwas Naheliegendes getan: Sie hat nachgebohrt. Und sie hatte recht. Die eigentliche Frage lautet nicht, welches Modell leistungsfähiger ist. Sondern wer den Strom dafür bezahlt — und wer darüber entscheidet.

Über den Autor

Rolf Jeger ist Kommunikationsunternehmer mit internationalen Awards, darunter Auszeichnungen in Cannes und New York. Er verbindet strategische Markenführung mit technologischer Expertise und beschäftigt sich seit vielen Jahren mit den Auswirkungen digitaler Entwicklungen auf Unternehmen und Organisationen.
Heute leitet er eine Agentur in Zürich, die Marketing, Technologie und künstliche Intelligenz integriert. Neben seiner Beratungstätigkeit schreibt er Bücher über künstliche Intelligenz und deren Bedeutung für Wirtschaft und Gesellschaft.