Microsoft entwickelt offenbar neue Softwaretools, um NVIDIAs KI-Software auf günstigeren AMD-Chips auszuführen, so die Kommentare eines mutmaßlichen Mitarbeiters, die diese Woche aufgetaucht sind.
Eine Senkung der hohen Kosten für KI-Workloads, auch bekannt als Inferenz, würde NVIDIAs langjährige Dominanz direkt in Frage stellen.
Solche Tools würden Berichten zufolge funktionieren, indem sie Code von NVIDIAs proprietärer CUDA-Plattform in AMDs Open-Source-ROCm-Format konvertieren. Wenn dies zutrifft, würde die Strategie einen breiteren Branchentrend widerspiegeln, da Technologiegiganten wie Oracle und OpenAI ihre Abhängigkeit von AMD-Hardware verstärken, um den Wettbewerb zu fördern.
Eine Geheimwaffe gegen NVIDIAs KI-Dominanz?
Behauptungen über das neue Toolkit stammen aus einem online kursierenden Transkript, das, obwohl von Microsoft nicht bestätigt, offenbar vom Third Bridge Forum stammt, einem seriösen Expertennetzwerk, das kostenpflichtige Interviews für Institutionen anbietet Kunden.
Darin behauptet eine anonyme Person, die als Microsoft-Experte gilt, dass das Unternehmen aktiv daran arbeite, die Lücke zwischen NVIDIAs proprietärer Software und der Hardware seiner Konkurrenten zu schließen.
In der Abschrift per Screenshot auf X geteilt behauptete der Sprecher, dass interne Projekte entworfen wurden um diese Herausforderung direkt anzugehen.
„In den letzten drei bis vier Monaten gab es ein viel größeres Interesse daran, durch Inferenzierung Kosten zu sparen. Wir haben einige Toolkits entwickelt, um die Konvertierung von CUDA-Modellen in ROCm zu erleichtern, sodass Sie es auf einem AMD, wie einem 300X, verwenden können.
Wir haben viele Anfragen dazu erhalten, wie unser Weg mit AMD, dem 400X und dem 450X aussieht. Wir arbeiten aktiv mit AMD zusammen Ich würde sagen, die größte Herausforderung, vor der wir derzeit stehen, insbesondere bei neueren Servern, besteht einfach darin, die Dichte am Rack herauszufinden und eine Flüssigkeitskühlung am Rack zu erhalten.“
Angeblicher Beitrag im Third Bridge-Forum (Quelle: @Jukanlosreve/
Seit Jahren ist die CUDA-Plattform von NVIDIA sowohl ein leistungsstarkes Tool als auch ein goldener Käfig für KI-Entwickler. CUDA ist eine Parallel-Computing-Plattform, deren robuste Bibliotheken sie zum Industriestandard gemacht haben und einen mächtigen „Graben“ schaffen, der es Wettbewerbern erschwert, Marktanteile zu gewinnen.
Im Falle einer Bestätigung wären die Bemühungen von Microsoft ein direkter Angriff auf diesen Burggraben. Während AMDs ROCm eine leistungsfähige Open-Source-Alternative ist, würde ein zuverlässiger Konvertierungspfad es Microsofts Azure-Kunden ermöglichen, die Kostenvorteile von AMD-Hardware zu nutzen, ohne auf die vertraute CUDA-Umgebung verzichten zu müssen.
Ein kostensparendes Spiel für den KI-Inferenz-Boom
Angetrieben durch die steigenden Kosten für KI-Operationen verfolgen Technologiegiganten jetzt aggressiv kostensparende Maßnahmen. Der Sprecher im Transkript betonte, dass die Hauptmotivation hinter dem angeblichen Toolkit finanzieller Natur ist, insbesondere für die Inferenzphase der KI, in der trainierte Modelle zum Einsatz kommen.
Da KI-Dienste auf Millionen von Benutzern ausgeweitet werden, machen Inferenzen einen großen Teil der Betriebskosten aus.
Ein wachsendes Interesse an Kosteneffizienz macht AMDs preislich wettbewerbsfähigere GPUs zu einer attraktiven Alternative zu NVIDIAs Premium-Hardware, sofern die Softwarebarriere überwunden werden kann.
Neben den Software-und Chipkosten werden auch physische Einschränkungen im Rechenzentrum zu einem kritischen Engpass. Die Quelle im Transkript stellte fest, dass die grundlegende Herausforderung nicht mehr nur darin besteht, ausreichend Strom sicherzustellen, sondern ihn effektiv zu verwalten.
Der Fokus auf Leistungsdichte und Flüssigkeitskühlung unterstreicht die immensen Anforderungen an die Unterbringung von KI-Beschleunigern der nächsten Generation.
Der branchenweite Vorstoß, den CUDA-Würgegriff zu brechen
Wenn Microsofts angebliche Strategie zutrifft, würde sie mit einem bedeutenden, branchenweiten Vorstoß zur Entwicklung einer wettbewerbsfähigeren KI übereinstimmen Hardware-Lieferkette. Für NVIDIA, dessen Marktführerschaft sowohl auf seiner Software als auch auf seinen Chips basiert, stellt dieser Trend eine langfristige Bedrohung dar.
Oracle, ein wichtiger Akteur im Bereich der Cloud-Infrastruktur, hat kürzlich eine große Partnerschaft zur Bereitstellung von 50.000 AMD-KI-Chips angekündigt. Karan Batta, Senior Vice President von Oracle Cloud, wies ausdrücklich auf den Wert dieser Alternative für kostensensible Workloads hin.
Das führende KI-Forschungslabor OpenAI unternimmt ebenfalls entscheidende Schritte zur Diversifizierung seiner Rechenbasis. Das Unternehmen schloss mit AMD eine endgültige Multimilliarden-Dollar-Vereinbarung über den Einsatz von 6 Gigawatt seiner GPUs ab.
Die Partnerschaft beinhaltet einen einzigartigen Optionsschein für bis zu 160 Millionen Aktien, der OpenAI eine etwa 10-prozentige Kapitalbeteiligung am Chiphersteller verschaffen könnte, was ihre Ziele stark angleichen würde.
Dieser Trend der „Koopetition“ erstreckt sich sogar auf historische Konkurrenten. Intel führt Gespräche über die Herstellung von Chips für AMD und unterstreicht damit die strategische Bedeutung einer diversifizierten Halbleiter-Lieferkette.
Wenn die Behauptungen über Microsofts Toolkit zutreffen, arbeitet das Unternehmen nicht nur an der Lösung eines internen Kostenproblems, sondern trägt auch zu einer breiteren Marktentwicklung bei. Ein erfolgreiches Konvertierungstool könnte ein Zeichen für die Zukunft der hardwareunabhängigen KI-Entwicklung sein und Entwickler von der Anbieterbindung befreien.
Eine solche potenzielle Verschiebung würde eine neue Reifephase für die gesamte KI-Branche markieren und von einem hektischen Landraub im Computerbereich zu einem strategischeren, multipolaren Ökosystem übergehen.