Microsoft, NVIDIA und Anthropic haben eine Allianz gebildet, die den KI-Markt neu gestalten wird. In einem am Dienstag bekannt gegebenen Deal stimmte Anthropic zu, 30 Milliarden US-Dollar für die Cloud-Kapazität von Microsoft Azure auszugeben. Gleichzeitig werden NVIDIA und Microsoft zusammen 15 Milliarden US-Dollar in das Startup investieren.

NVIDIA investiert 10 Milliarden US-Dollar, während Microsoft 5 Milliarden US-Dollar hinzufügt. Die Integration bringt die Claude-Modelle von Anthropic direkt in Azure und unterstützt damit Microsofts Plan, verschiedene KI-Tools anzubieten. Der Zugriff auf solche Kapazitäten gibt Anthropic die rohe Kraft, die für den Bau seiner nächsten großen Modelle erforderlich ist.

Eine 30-Milliarden-Dollar-Verpflichtung für Azure

Anthropic hat sich verpflichtet, im Laufe des nächsten Jahrzehnts Rechenguthaben im Wert von 30 Milliarden US-Dollar zu erwerben, eine Zahl, die die astronomischen Kosten unterstreicht, die mit der Entwicklung künstlicher Intelligenz der Spitzenklasse verbunden sind.

Über die finanzielle Verpflichtung hinaus beinhaltet der Deal eine spezifische Bestimmung für Anthropic, zusätzliche Rechenkapazität von bis zu einem Gigawatt zu kontrahieren, um sicherzustellen, dass das Startup garantiert Zugang zu der Energie und Rechenleistung hat, die für die Ausbildung von Nachfolgern seiner aktuellen Modellgeneration erforderlich ist.

Die finanzielle Architektur des Deals schafft eine symbiotic liquidity loop between the partners. Gemäß den Bedingungen der Vereinbarung stellt die Kapitalzuführung in Höhe von 15 Milliarden US-Dollar, aufgeteilt auf 10 Milliarden US-Dollar von NVIDIA und 5 Milliarden US-Dollar von Microsoft, das unmittelbare Kapital bereit, das zur Finanzierung dieses Infrastrukturausbaus erforderlich ist.

Im Wesentlichen wird ein erheblicher Teil des Kapitals, das Microsoft in Anthropic investiert, als Umsatz in die eigene Azure-Abteilung zurückfließen und dabei helfen, die massiven Investitionsausgaben zu subventionieren, die für den Bau neuer Rechenzentren erforderlich sind.

Diese Struktur spiegelt ähnliche Vereinbarungen wider, die Microsoft mit OpenAI getroffen hat, und sichert sich so effektiv einen langfristigen Ankermieter für seine expandierenden Supercomputing-Cluster.

Diese strategische Neuausrichtung markiert einen entscheidenden Wendepunkt gegenüber der bisherigen Infrastrukturstrategie von Anthropic, die bisher verließ sich stark auf Amazon Web Services (AWS) als primären Cloud-Anbieter.

Während das Unternehmen seine bestehende Beziehung zu Amazon aufrechterhält, signalisiert das schiere Ausmaß des Azure-Engagements die Einführung einer De-facto-Dual-Cloud-Strategie. Durch die Diversifizierung seiner Rechenbasis verringert Anthropic das Risiko einer Anbieterbindung und sorgt für Redundanz zwischen den beiden größten Cloud-Plattformen der Welt.

Laut Microsoft ist Claude durch diesen Schritt die einzige Frontier-Modellfamilie, die für alle drei der weltweit bekanntesten Cloud-Dienste verfügbar ist, und verschafft ihm einen einzigartigen Vertriebsvorteil gegenüber Wettbewerbern, die ausschließlich an einen einzigen Infrastrukturpartner gebunden sind.

Der Schritt wird durch die explodierenden Infrastrukturanforderungen für das Training von Modellen der nächsten Generation vorangetrieben. die jetzt Cluster von Zehntausenden von GPUs erfordern, die gemeinsam arbeiten.

Durch die Sicherung des vorrangigen Zugriffs auf die fortschrittliche Supercomputing-Architektur von Azure, zu der die neuesten NVIDIA Grace Blackwell-und Vera Rubin-Systeme gehören, stellt Anthropic sicher, dass es gegenüber GPT-5 von OpenAI und Gemini von Google wettbewerbsfähig bleiben kann.

Für Microsoft bestätigt der Deal seine aggressive Erweiterung des Rechenzentrums, einschließlich der jüngsten Projekte zum Bau riesiger KI-Supercomputer, indem er beweist, dass diese nachhaltig ist. eine hochwertige Nachfrage nach solchen Kapazitäten, die über den eigenen internen Bedarf hinausgeht.

NVIDIAs 10-Milliarden-Dollar-Absicherung

NVIDIAs Beteiligung fügt der Allianz eine komplexe Ebene hinzu. Mit der Investition von 10 Milliarden US-Dollar finanziert CEO Jensen Huang effektiv den Hauptkonkurrenten seines anderen großen Partners, OpenAI. Market dominance is the goal here; Der Schritt stellt die Nachfrage nach Blackwell-und Rubin-GPUs sicher, unabhängig davon, welche Modellfamilie die Softwareebene dominiert.

Dennoch vereint die Partnerschaft Führungskräfte mit historisch unterschiedlichen Ansichten. Erst vor Monaten stritten sich Huang und Anthropic-CEO Dario Amodei öffentlich über die gesellschaftlichen Auswirkungen von KI. Amodei hat häufig vor katastrophalen Risiken gewarnt, während Huang solche Bedenken als Panikmache abgetan hat.

Geld scheint diese philosophische Kluft überbrückt zu haben. Durch die strategische Ausrichtung wird sichergestellt, dass die Cluster von Anthropic auf der neuesten Architektur von NVIDIA und nicht auf benutzerdefinierten Chips von Google oder Amazon basieren.

Für NVIDIA ist dies ein Abwehrspiel gegen den Aufstieg proprietärer Chips, um sicherzustellen, dass seine Hardware sowohl für Training als auch für Inferenz der Industriestandard bleibt.

Native on Azure: Ein technischer Dreh-und Angelpunkt

Während frühere Integrationen auf API-Aufrufen beruhten, die an externe Hosts weitergeleitet wurden, sind die heutigen Neuigkeiten confirms a deeper technical unification. Im September begann Microsoft 365 Copilot, Claude über auf AWS gehostete Standard-APIs anzubieten. Dieses Setup ermöglichte Benutzern den Zugriff auf die Modelle, die Daten mussten jedoch weiterhin Cloud-Grenzen überwinden.

Jetzt skaliert Anthropic seine Modelle nativ auf der Azure-Infrastruktur. Entwickler, die Microsoft Foundry und den Azure AI Agent Service nutzen, können auf Claude Sonnet 4.5, Claude Opus 4.1 und Claude Haiku 4.5 zugreifen, die direkt in den Rechenzentren von Microsoft ausgeführt werden. Es wird erwartet, dass die Latenz dadurch erheblich sinkt.

Unternehmenskunden können die Compliance-und Sicherheitskontrollen von Azure auch effektiver anwenden, wenn die Modellgewichte auf der Plattform resident sind. Dieses native Hosting ist für den „Researcher“-Agenten in Microsoft 365 von entscheidender Bedeutung, der komplexe, mehrstufige Argumentationsaufgaben ausführt.

Charles Lamanna, Präsident von Microsofts Business & Industry Copilot, betonte diese Flexibilität bei der ersten Integration: „Copilot wird weiterhin auf den neuesten Modellen von OpenAI basieren, und jetzt haben unsere Kunden die Flexibilität, auch Anthropic-Modelle zu verwenden.“

Darüber hinaus nutzt die Integration das Model Context Protocol (MCP), ein offener Standard, der von den beiden Unternehmen gemeinsam entwickelt wurde. Dieses Protokoll standardisiert die Art und Weise, wie KI-Agenten sich mit Daten verbinden, und ermöglicht Claude eine nahtlose Verbindung mit dem umfangreichen Unternehmensökosystem von Microsoft.

Stärkung des Multi-Model Moat

Microsoft setzt seine „Multi-Model Moat“-Strategie energisch um. Durch das Hosten von OpenAI und Anthropic positioniert Satya Nadella Azure als neutralen Versorger für das KI-Zeitalter.

Die Diversifizierung des Portfolios schützt Redmond vor einer übermäßigen Abhängigkeit von einem einzelnen Anbieter, ein Risiko, das während der Führungsunruhen von OpenAI im letzten Jahr deutlich wurde.

Diese Diversifizierung erfolgt unmittelbar nachdem Microsoft einen kritischen Vertragsstreit mit OpenAI bezüglich der „AGI-Weltuntergangsklausel“ beigelegt hat. Diese ursprüngliche Bestimmung aus dem Jahr 2019 hätte es OpenAI ermöglichen können, den Zugang von Microsoft zu sperren, sobald künstliche allgemeine Intelligenz erreicht wurde.

Nachdem diese rechtliche Bedrohung neutralisiert wurde, steht es Redmond frei, die Konkurrenten von OpenAI zu stärken, ohne einen Vertragsbruch befürchten zu müssen.

Trotz der neuen Konkurrenz erklärte Microsoft AI-CEO Mustafa Suleyman im August: „Unser Ziel ist es, die Partnerschaft zu vertiefen und sicherzustellen, dass wir viele, viele Jahre lang eine großartige Zusammenarbeit mit OpenAI haben.“ kommen“, was eine Strategie der Diversifizierung anstelle von Ersatz vorschlägt. 

Die Strategie ist eher additiv als subtraktiv und stellt sicher, dass Microsoft an jedem großen KI-Durchbruch beteiligt ist. Microsoft ist sich bewusst, dass kein einzelnes Modell jeden Benchmark gewinnt, und hat sich dafür entschieden, das „beste Tool für den Job“ anzubieten. Benutzer können zwischen OpenAI-und Anthropic-Modellen wechseln.

Diese Funktion ist besonders relevant für den „Researcher“-Agenten, der Webdaten und interne Dateien nutzt, um Strategien zu entwickeln. Benutzer können jetzt je nach Aufgabe zwischen dem breiten Wissen von GPT-5 und Claudes spezialisiertem Denken wechseln.

OpenAI bleibt eine beeindruckende Einheit für sich. Following its restructuring, the organization. Wie der Vorsitzende von OpenAI, Bret Taylor, feststellte, macht diese Bewertung es zu „einer der am besten ausgestatteten philanthropischen Organisationen der Welt“. Ultimately, Azure wins either way. Unabhängig davon, ob sich ein Unternehmen für GPT-5 oder Claude Opus 4.1 entscheidet, fließen die Recheneinnahmen an Microsoft.

Categories: IT Info