Ein neuer Bericht, der auf durchgesickerten Dokumenten basiert, zeigt, dass die Betriebskosten von OpenAI dramatisch höher sind als bisher angenommen, was Fragen zur finanziellen Tragfähigkeit seines Geschäftsmodells aufwirft.
Der am 12. November veröffentlichte Bericht zeigt, dass OpenAI in den ersten neun Monaten des Jahres 2025 über 8,6 Milliarden US-Dollar für Microsoft Azure ausgegeben hat, eine Zahl, die seine impliziten Einnahmen von 4,3 Milliarden US-Dollar für den gleichen Zeitraum in den Schatten stellt.
Diese Zahlen sind deutlich widersprechen früheren Medienberichten und öffentlichen Äußerungen der Unternehmensführung. Die Daten deuten darauf hin, dass die tatsächlichen Kosten für den Betrieb groß angelegter KI weitaus höher sind als offengelegt, was das wirtschaftliche Narrativ der generativen KI-Branche neu prägt.
Eine Geschichte aus zwei Büchern: Durchgesickerte Kosten kollidieren mit Ansprüchen der öffentlichen Finanzen
Laut von Ed Zitron eingesehenen Dokumenten könnte die finanzielle Lage von OpenAI weitaus prekärer sein, als das öffentliche Image vermuten lässt.
Der Kern des Problems liegt in einer massiven Diskrepanz zwischen den Ausgaben des Unternehmens für Azure und seinen tatsächlichen Einnahmen. In den ersten drei Quartalen des Jahres 2025 belief sich allein die Inferenzrechnung des KI-Labors auf erstaunliche 8,67 Milliarden US-Dollar.
Im gleichen Zeitraum deuten Zahlungen aus der 20-prozentigen Umsatzbeteiligungsvereinbarung von Microsoft darauf hin, dass der Gesamtumsatz von OpenAI nur 4,33 Milliarden US-Dollar betrug.
Verwandt: Anthropic erwartet für 2028 Rentabilität, während OpenAI 74 Milliarden US-Dollar prognostiziert Verlust
Dieses Finanzbild steht in starkem Widerspruch zu früheren Berichten. Beispielsweise wurde in Berichten über das erste Halbjahr 2025 behauptet, OpenAI habe einen Umsatz von 4,3 Milliarden US-Dollar erwirtschaftet, bei „Umsatzkosten“ von 2,5 Milliarden US-Dollar.
Die durchgesickerten Dokumente zeigen jedoch, dass die Schlussfolgerungskosten für diesen Zeitraum bei über 5 Milliarden US-Dollar lagen, mit impliziten Einnahmen von nur 2,27 Milliarden US-Dollar.
Die Kluft zwischen diesen Zahlen und öffentlichen Aussagen ist groß. Sam Altman, CEO von OpenAI, behauptete kürzlich: „Der Umsatz von OpenAI beträgt ‚deutlich mehr‘ als 13 Milliarden US-Dollar.“ Dennoch zeichnen die durchgesickerten Daten das Bild eines Unternehmens, dessen primäre Betriebskosten fast das Doppelte seines Einkommens verschlingen.
[eingebetteter Inhalt]
Im Anschluss an den Bericht erteilte ein Microsoft-Sprecher gegenüber der Financial Times ein sanftes Dementi: Angabe, dass die Zahlen „nicht ganz richtig“ seien und dass eine „unvollständige Buchhaltung“ im Spiel sein könnte, möglicherweise aufgrund komplexer Cloud-Kreditvereinbarungen.
Dennoch argumentieren einige Analysten, dass die Situation auf einen potenziellen „fatalen Fehler“ im generativen KI-Geschäftsmodell hindeutet, wobei Yves Smith vom nackten Kapitalismus was darauf hindeutet, dass die Diskrepanzen auf „schwerwiegende Falschdarstellungen“ gegenüber Investoren und Partnern hinauslaufen könnten.
„Da OpenAI nicht öffentlich ist, ist OpenAI hat sich nicht unbedingt an Betrug beteiligt; man geht davon aus, dass es mit denjenigen, denen gegenüber es Finanzberichtspflichten in Geldangelegenheiten hat, Recht hat.“
Das 8,7-Milliarden-Dollar-Inferenzgesetz: Offenlegung des atemberaubenden Geldverbrauchs von OpenAI
Für die breitere generative KI-Branche werfen die Zahlen existenzielle Fragen zur langfristigen Rentabilität auf.
Inferenz, der Prozess der Ausführung eines trainierten Modells zur Generierung von Ausgaben, ist seit langem als großer Kostenfaktor bekannt. Allerdings ist das in dem Leak offenbarte Ausmaß beispiellos.
Die Ausgaben von OpenAI stiegen von 3,77 Milliarden US-Dollar für das gesamte Jahr 2024 auf 8,67 Milliarden US-Dollar in nur neun Monaten im Jahr 2025. Dieser Cash-Burn für eine einzelne operative Position scheint linear mit dem Umsatzwachstum zu wachsen oder sogar schneller als dieses.
Dieser immense finanzielle Druck erklärt die Dynamik der strategischen Partnerschaft zwischen OpenAI und Microsoft.
Im Oktober Im Jahr 2025 schlossen die beiden Unternehmen einen bahnbrechenden Deal ab, der Microsoft einen Anteil von 27 % verschaffte und OpenAIs Zusage sicherte, weitere 250 Milliarden US-Dollar an Azure-Diensten zu kaufen.
Während dies die Abhängigkeit von OpenAI von Microsoft bekräftigt, scheinen die zugrunde liegenden wirtschaftlichen Rahmenbedingungen nun weitaus herausfordernder zu sein. Die Kostenstruktur deutet darauf hin, dass selbst bei massiven Cloud-Verpflichtungen grundlegende Änderungen an der Modelleffizienz oder der Preisgestaltung erforderlich sein können, um Rentabilität zu erzielen.
Microsofts Antwort: Aufbau eines KI-Super-Stacks zur Eindämmung der außer Kontrolle geratenen Kosten
Als Reaktion auf diese enormen betrieblichen Anforderungen hat Microsoft energisch seine eigene KI-Infrastruktur ausgebaut, um Kosten zu kontrollieren und Abhängigkeiten zu reduzieren.
Die Kapitalausgaben des Unternehmens für Rechenzentren und zugehörige Hardware sind sprunghaft angestiegen. allein im letzten Quartal erreichten sie fast 35 Milliarden US-Dollar, was einer Steigerung von 74 % gegenüber dem Vorjahr entspricht.
Bei diesem Kaufrausch geht es nicht nur um die Erweiterung der Kapazität; Es handelt sich um eine strategische Anstrengung, seinen KI-Stack vertikal zu integrieren.
Zwei aktuelle Initiativen unterstreichen diese Strategie. Erstens bestätigte Microsoft, dass es eine kontinentale „KI-Superfabrik“ baut, die Rechenzentren über Hunderte von Kilometern miteinander verbindet, um einen einzigen virtuellen Supercomputer zu schaffen.
Dieser verteilte Ansatz soll lokale Strom-und Landbeschränkungen überwinden, die die Hauptengpässe für die Skalierung von KI darstellen.
Zweitens beschleunigt der Redmonder Riese seine interne Chipentwicklung durch die Lizenzierung der benutzerdefinierten Hardware-IP von OpenAI.
Von Mit der Entwicklung eigener Chips möchte Microsoft hochoptimierte Beschleuniger entwickeln, die KI-Workloads effizienter und kostengünstiger ausführen können als handelsübliche Hardware.
Dieser Schritt, kombiniert mit den Bemühungen, NVIDIAs Software-Dominanz zu brechen, zeigt eine klare langfristige Vision. Wie CEO Satya Nadella erklärte: „Man kann keine Infrastruktur aufbauen, die für ein bestimmtes Modell optimiert ist. Wenn Sie das tun, was ist, wenn Sie ins Hintertreffen geraten? Tatsächlich wird die gesamte Infrastruktur, die Sie aufgebaut haben, eine Verschwendung sein.“
Letztendlich hat das OpenAI-Leck den Vorhang über die brutale Wirtschaftlichkeit der KI gelüftet und enthüllt, warum Microsoft darum kämpft, jede Schicht des Stapels zu besitzen, vom Silizium bis zur Cloud.