Die großen KI Konzerne kaufen riesige Mengen an Nvidia GPUs, aber Microsoft scheitert schon an der Stromversorgung für vorhandene Hardware. Gleichzeitig bindet sich OpenAI mit einem Vertrag über 38 Milliarden Dollar an Amazon Web Services. Die Frage lautet, wer diese KI Flotten mit genügend Energie versorgt und welche Infrastruktur dafür entstehen muss.
Aktueller Anlass: Microsofts CEO Satya Nadella beschreibt in einem Interview, dass Strom und Rechenzentren der Engpass sind, nicht die Zahl der GPUs.
Wer sagt was:
- Satya Nadella sagt: „Das größte Problem, das wir jetzt haben, ist nicht ein Überangebot an Rechenleistung, sondern Strom.“
- Die Ankündigung von OpenAI und Amazon hält fest, dass OpenAI „sofort“ AWS Rechenleistung nutzt und die Kapazität bis Ende 2026 voll bereitsteht.
Hintergrund:
- Große KI Modelle brauchen nicht nur GPUs, sondern Standorte mit starker Netzanbindung und Kühlung.
- Warme Hüllen sind fertig angeschlossene Standorte, die nur noch mit Servern bestückt werden.
- Wenn das lokale Netz die Last von zehntausenden Nvidia Hopper und Blackwell GPUs nicht trägt, verliert ein neues Rechenzentrum seinen Sinn.
Im Detail:
- Der AWS Vertrag gibt OpenAI Zugang zu Nvidia GPUs der Typen GB200 und GB300 in dicht gebündelten Clustern.
- Die Architektur basiert auf Amazon EC2 UltraServers im selben Netzwerk, optimiert für Effizienz und Leistung.
- OpenAI nutzt weiter Microsoft Azure, Amazon baut parallel zusätzliche Rechenzentren und beschafft neue GPUs.
Berechnung:
- Forschungen des Lawrence Berkeley National Laboratory erwarten bis zu 580 Billionen Wattstunden Stromverbrauch von Rechenzentren innerhalb von drei Jahren.
- Laut Massachusetts Institute of Technology verbraucht KI so viel Strom wie 22 Prozent aller privaten Haushalte in den Vereinigten Staaten.
- Ein reaktiviertes Atomkraftwerk liefert im besten Fall 7,3 Terawattstunden pro Jahr, nur rund 1,3 Prozent des prognostizierten Gesamtbedarfs.
Was zu tun ist:
- Konzerne wie Amazon, Google, Meta und Microsoft müssen deutlich mehr Kraftwerke und Netzinfrastruktur aufbauen oder reaktivieren.
- Sie müssen spezialisierte, energieeffiziente KI ASICs entwickeln, ähnlich wie beim Bitcoin Mining.
- Realistisch entsteht eine Kombination aus massivem Ausbau der Stromerzeugung und hoch optimierter Hardware, um die Systeme funktionsfähig zu halten.
Wie es gemessen wurde:
- Die Prognose zum Stromverbrauch von Rechenzentren basiert auf Berechnungen des Lawrence Berkeley National Laboratory.
- Die Einordnung des Anteils am Haushaltsverbrauch stammt aus Analysen des Massachusetts Institute of Technology.
Wo es auffällt: Google plant bereits neue Anlagen, erreicht damit aber nur einen Bruchteil des erwarteten Mehrbedarfs.
Warum das wichtig ist:
- Die Rivalität in der Künstlichen Intelligenz hängt nicht mehr nur von Algorithmen und GPUs ab, sondern von gesicherter Stromversorgung und stabilen Netzen.
- Wenn bereits heute GPUs ungenutzt im Lager liegen, weil Energie und Infrastruktur fehlen, gefährdet das Milliardeninvestitionen und technologische Handlungsfähigkeit.
Quellen:
PC Gamer →
theverge.com →


