Skip to content
RiverCore
Microsoft plant Verdoppelung der KI-Kapazität bis 2028
Microsoft AI capacityAzure expansioncapex spendingMicrosoft doubles AI infrastructure 2028Azure GPU capacity cloud investment

Microsoft plant Verdoppelung der KI-Kapazität bis 2028

5 Mai 20266 Min. LesezeitAlex Drover

Wer in den letzten 18 Monaten versucht hat, GPU-Kapazität in einer Public Cloud bereitzustellen, kennt die übliche Antwort: „vielleicht nächstes Quartal." Microsoft hat Wall Street gerade mitgeteilt, dass es diesen Engpass bis 2028 verdoppeln will – und dabei in einem einzigen Zeitfenster von dreizehn Wochen 31,9 Milliarden US-Dollar an Capex verbrannt hat. Für Platform Leads, die auf Azure als KI-Substrat setzen, ist das die wichtigste Zahl des Quartals.

Das Verdopplungsversprechen von Satya Nadella baut auf einer bestehenden Infrastruktur auf, die auf dem Papier bereits absurd groß wirkt. Die Frage ist, ob die Stückkosten standhalten, wenn zwei Drittel dieses Capex eine Lebensdauer wie ein Mittelklasse-Laptop haben.

Wichtige Details

Die zentrale Aussage, wie The Next Platform berichtete: Microsoft hat allein im März-Quartal 1 Gigawatt an Kapazität hinzugefügt, und Nadella bekräftigte, dass das Unternehmen auf Kurs ist, die Gesamtkapazität (gemessen in Gigawatt, nicht in Flops) in den nächsten zwei Jahren zu verdoppeln. Der aktuelle Fußabdruck ist bereits enorm: mehr als 80 Azure-Regionen, über 500 Rechenzentren, mehr als 190 Point-of-Presence-Standorte und über 800.000 Kilometer Glasfasernetz. Das gesamte Netzwerk verbraucht rund 10 Gigawatt Strom.

Eine Verdoppelung bedeutet, dass Microsoft bis 2028 weitere 10 Gigawatt an Rechenleistung, Kühlung und Netzanschluss verpflichtet. Zum Vergleich: Das entspricht der Leistung von etwa zehn Kernkraftwerken.

Die finanzielle Grundlage ist beeindruckend. Der Umsatz im Q3 des Geschäftsjahres 2026 erreichte 82,89 Milliarden US-Dollar, ein Anstieg von 18,3 Prozent im Jahresvergleich. Das Betriebsergebnis stieg um 20 Prozent auf 38,4 Milliarden US-Dollar. Der Nettogewinn kletterte um 23,1 Prozent auf 31,78 Milliarden US-Dollar, was 38,3 Prozent des Umsatzes entspricht. Intelligent Cloud, das Azure beinhaltet, erzielte 34,68 Milliarden US-Dollar Umsatz (plus 29,6 Prozent) mit einem Betriebsergebnis von 13,75 Milliarden US-Dollar bei einer Marge von 39,7 Prozent. Microsoft Cloud erzielte insgesamt 54,55 Milliarden US-Dollar Umsatz mit einem Bruttogewinn von 36 Milliarden US-Dollar. Productivity and Business Processes erzielte knapp über 35 Milliarden US-Dollar Umsatz mit knapp unter 21 Milliarden US-Dollar Betriebsgewinn, und das Enterprise-App-Geschäft darin wuchs um 16,9 Prozent.

Auf der Silicon-Seite sind Cobalt Arm Server-CPUs jetzt in der Hälfte der Azure-Regionen im Einsatz, und der im späten Januar vorgestellte Braga Maia 200 XPU läuft in Rechenzentren in Iowa und Arizona. Der Capex betrug im Quartal 31,9 Milliarden US-Dollar, wobei etwa zwei Drittel auf CPUs und GPUs entfielen (von Microsoft als „kurzlebige Vermögenswerte" eingestuft) und der Rest auf Rechenzentrumshüllen mit einer Lebensdauer von über fünfzehn Jahren. Der Kassenbestand am Quartalsende: 78,27 Milliarden US-Dollar.

Warum das für die KI-Entwicklung relevant ist

Die Capex-Aufteilung ist die Kennzahl, die jeder CTO genau unter die Lupe nehmen sollte. Rund 21 Milliarden US-Dollar eines Quartals flossen in Chips, die Microsoft selbst als kurzlebig einstuft. Das ist ein Abschreibungszeitraum, der eher an Unterhaltungselektronik als an traditionelle Infrastruktur erinnert. Produktionsvorfälle, die ich bei Fintechs erlebt habe, die Hardware-Refresh-Zyklen falsch eingeschätzt haben, beginnen oft damit, dass jemand von einer fünfjährigen Lebensdauer bei Geräten ausging, die nur drei Jahre halten. Microsoft ist ehrlich gegenüber dieser Rechnung – das kann man von den meisten nicht behaupten.

Die operative Einschätzung lautet: Die KI-Kapazität von Azure wird unter der Annahme finanziert, dass GPU-Generationen schnell wechseln und der Umsatz jeder Generation die Kosten decken muss, bevor die nächste kommt. Bei 31,9 Milliarden US-Dollar pro Quartal sind das annualisiert rund 127 Milliarden US-Dollar, wenn das Tempo anhält. Die Betriebsmarge von 39,7 Prozent in Intelligent Cloud zeigt: Das Modell funktioniert – vorerst.

Die andere Veränderung ist strategischer Natur. Microsoft hält keine exklusiven Rechte mehr an OpenAI GPT-Modellen. Der Deal, der im September 2020 begann, wurde gelockert, und OpenAI gibt Dutzende von Milliarden aus, um eigene Hardware über Nvidia, AMD und Cerebras zu beschaffen. OpenAI hat nach wie vor erhebliche Verpflichtungen, Azure-Kapazität zu mieten, sodass der Umsatzstrom nicht verschwunden ist – aber die Bindung schon. Für Teams, die auf dem Azure OpenAI Service aufbauen, ist das größtenteils eine gute Nachricht. Microsoft hat jetzt einen direkten Anreiz, wettbewerbsfähige Modelle neben GPT zu hosten, was mehr Wahlmöglichkeiten auf der API-Ebene bedeutet. Entwickler, die Azure-gehostete Modelle mit direkten Aufrufen der OpenAI API oder der Anthropic-Dokumentation vergleichen, werden sehen, dass sich die Lücke bei den Funktionen verringert, nicht vergrößert.

Meine Einschätzung: Das Ende der OpenAI-Exklusivität ist das am meisten unterschätzte Ereignis dieses Quartals. Es gibt Microsoft die Freiheit, wieder als neutraler Cloud-Anbieter zu agieren, und zwingt die Azure-KI-Roadmap dazu, bei der Infrastrukturqualität statt bei der Modellexklusivität zu konkurrieren.

Auswirkungen auf die Branche

Für iGaming-, Fintech- und Ad-Tech-Teams, die Echtzeit-Inferenz betreiben, ist die Verdoppelung der Kapazität die praktische Kernbotschaft. Rate Limits und Quota-Ablehnungen bei Azure OpenAI waren für Teams, mit denen ich bei europäischen Fintech-Rollouts zusammengearbeitet habe, ein wiederkehrendes Problem – insbesondere rund um Launch-Fenster, wenn Traffic-Spitzen mit globalen Kapazitätsengpässen zusammenfallen. Weitere 10 Gigawatt Kapazität, selbst verteilt über zwei Jahre, lockern diesen Engpass spürbar.

Die Cobalt- und Maia 200-Deployments sind für kostenempfindliche Workloads relevant. Cobalt ist jetzt in der Hälfte der Azure-Regionen verfügbar, was bedeutet, dass Arm-basierte VM-SKUs keine Kuriosität mehr sind, sondern eine echte Beschaffungsoption. Teams, die zustandslose Backend-Services, Message Queues oder Feature Stores betreiben, können auf Basis von Mustern, die wir mit Graviton auf AWS gesehen haben, wahrscheinlich 10 bis 20 Prozent der Rechenkosten einsparen, indem sie wechseln. Der Maia 200 in Iowa und Arizona ist noch eingeschränkter, signalisiert aber, dass Microsoft bereit ist, mit Nvidia beim Inferenz-Preis pro Token im eigenen Haus zu konkurrieren.

Die unbequeme Erkenntnis: 31,9 Milliarden US-Dollar Capex in einem Quartal entspricht in etwa dem gesamten Jahresumsatz einer der fünf größten europäischen Banken. Bei einem 200-köpfigen Platform-Engineering-Team eines mittelgroßen Betreibers würde das Äquivalent eines Quartals von Microsofts GPU-Capex die gesamte Gehaltsabrechnung für mehrere Jahrhunderte finanzieren. Eine solche Asymmetrie bedeutet, dass kleinere Anbieter nicht sinnvoll versuchen können, den gesamten Stack selbst zu betreiben. Sie müssen ihn mieten – und ihren Cloud-Partner mit der gleichen Sorgfalt auswählen, mit der sie früher einen Kernbankinglieferanten ausgewählt haben.

Die Nettomarge von 38,3 Prozent zeigt, dass Microsoft Preissetzungsmacht hat. Rechnen Sie nicht damit, dass die Azure AI-Listenpreise stark sinken werden. Erwarten Sie stattdessen, dass Committed-Use-Rabatte und Reservierungsverträge der entscheidende Hebel sein werden.

Was zu beobachten ist

Drei Signale werden zeigen, ob das Verdopplungsversprechen real oder aspirativ ist. Erstens: Beobachten Sie die quartalsweise Capex-Zahl. Wenn sie in den nächsten vier Quartalen über 30 Milliarden US-Dollar bleibt, liegt der Aufbau im Zeitplan. Wenn sie sinkt und Microsoft anfängt, über „Capital Efficiency" zu sprechen, verschiebt sich der Zeitplan. Zweitens: Beobachten Sie die Maia 200-Regionsexpansion. Zwei Rechenzentren heute – Iowa und Arizona – sind ein Pilotprojekt. Sechs bis zehn Regionen innerhalb von zwölf Monaten würden bedeuten, dass Microsoft es ernst meint mit der Reduzierung der Nvidia-Abhängigkeit. Ein Stillstand bei zwei oder drei bedeutet, dass der Chip noch nicht für allgemeine Workloads bereit ist.

Drittens: Beobachten Sie, was Microsoft mit Frontier-Modellen macht. Das Unternehmen hat vor dem November-2021-GPT-3-API-Moment, der alles veränderte, ein hybrides Megatron-Turing-Modell mit Nvidia gebaut. Mit dem Ende der OpenAI-Exklusivität verfügt Microsoft sowohl über das Kapital (78,27 Milliarden US-Dollar in der Kasse) als auch über den Silicon, um in das Frontier-Modell-Geschäft zurückzukehren. Wenn in den nächsten zwölf Monaten ein Microsoft-eigenes Frontier-Modell erscheint, hört die Azure-KI-Geschichte auf, nur das Hosting fremder Modelle zu sein.

Für Platform-Teams: Sichern Sie sich jetzt Kapazitätsreservierungen, wenn Sie Einblick in die Nachfrage von 2027 haben. Die Verdoppelung kommt – aber auch die Nachfrage, die sie absorbieren wird.

Wichtigste Erkenntnisse

  • Microsoft hat im Q3 des Geschäftsjahres 2026 1 Gigawatt hinzugefügt und sich verpflichtet, seinen KI-Fußabdruck von rund 10 Gigawatt bis 2028 zu verdoppeln.
  • Der Capex im Q3 erreichte 31,9 Milliarden US-Dollar, davon zwei Drittel für CPUs und GPUs, die Microsoft als kurzlebige Vermögenswerte einstuft.
  • Intelligent Cloud erzielte 34,68 Milliarden US-Dollar Umsatz bei einer Betriebsmarge von 39,7 Prozent und finanziert den Ausbau ohne Belastung.
  • Cobalt Arm CPUs decken die Hälfte der Azure-Regionen ab; Maia 200 XPUs sind in Iowa und Arizona aktiv und geben Microsoft echte Silicon-Optionen.
  • Die OpenAI-Exklusivität ist beendet, aber Mietvereinbarungen bleiben bestehen – Microsoft kann nun konkurrierende Modelle hosten und eigene Frontier-Fähigkeiten wieder aufbauen.

Häufig gestellte Fragen

F: Was meint Microsoft mit „Verdoppelung der KI-Kapazität in zwei Jahren"?

Nadella formulierte das Ziel in Gigawatt Stromkapazität, nicht in Gleitkommaoperationen pro Sekunde. Der aktuelle Fußabdruck von Microsoft verbraucht rund 10 Gigawatt in mehr als 500 Rechenzentren. Eine Verdoppelung bedeutet also, bis 2028 weitere 10 Gigawatt an Rechenleistung, Kühlung und Netzanschluss zu verpflichten.

F: Wie viel gibt Microsoft tatsächlich für KI-Hardware aus?

Microsoft hat im März-Quartal 2026 31,9 Milliarden US-Dollar für Capex ausgegeben, davon etwa zwei Drittel für CPUs und GPUs und der Rest für Rechenzentrumshüllen. Der Chip-Anteil wird intern als „kurzlebige Vermögenswerte" eingestuft, was den schnellen Abschreibungszyklus aktueller KI-Silicon widerspiegelt.

F: Was hat sich in der Beziehung zu OpenAI geändert?

Microsoft hält keine exklusiven Rechte mehr an den GPT-Modellen von OpenAI und beendet damit die Vereinbarung, die im September 2020 begann. OpenAI beschafft nun eigene Hardware über Nvidia, AMD und Cerebras, hält aber weiterhin erhebliche Verpflichtungen ein, Rechenkapazität auf Azure zu mieten.

AD
Alex Drover
RiverCore Analyst · Dublin, Ireland
TEILEN
// RELATED ARTICLES
StartseiteLösungenProjekteÜber unsKontakt
News06
Dublin, Irland · EUGMT+1
LinkedIn
🇩🇪DE