Microsoft ontwikkelt blijkbaar nieuwe softwaretools om de AI-software van NVIDIA op goedkopere AMD-chips uit te voeren, zo blijkt uit de opmerkingen van een vermeende medewerker die deze week naar boven kwamen.
Het verlagen van de hoge kosten van AI-workloads, ook wel inferentie genoemd, zou de lang bestaande dominantie van NVIDIA direct ter discussie stellen.
Dergelijke tools zouden naar verluidt werken door code van NVIDIA’s eigen CUDA-platform naar AMD’s open-source te converteren. ROCm-formaat. Als dit waar is, zou de strategie een bredere trend in de sector weerspiegelen, aangezien technologiegiganten als Oracle en OpenAI hun afhankelijkheid van AMD-hardware vergroten om de concurrentie te bevorderen.
Een geheim wapen tegen de AI-dominantie van NVIDIA?
Claims over de nieuwe toolkit zijn afkomstig van een transcript dat online circuleert en dat, hoewel niet bevestigd door Microsoft, afkomstig lijkt te zijn van het Third Bridge Forum, een gerenommeerd expertnetwerk dat interviews tegen betaalmuur biedt aan institutionele Daarin beweert een anoniem individu dat als een Microsoft-expert wordt beschouwd dat het bedrijf actief werkt aan het overbruggen van de kloof tussen de eigen software van NVIDIA en de hardware van zijn concurrenten.
In het transcript gedeeld via screenshot op X beweerde de spreker het bestaan van interne projecten die zijn ontworpen om deze uitdaging direct aan.
“Er is de afgelopen drie tot vier maanden veel meer belangstelling geweest voor het besparen van kosten met inferentie. We hebben een aantal toolkits gebouwd om te helpen bij het converteren van CUDA-modellen naar ROCm, zodat je deze kunt gebruiken op een AMD, zoals een 300X.
We hebben veel vragen gehad over wat ons pad is met AMD, de 400X en de 450X. We werken daar actief aan samen met AMD om te zien hoe we dat kunnen maximaliseren. De grootste uitdaging waar we nu tegenaan lopen, vooral bij nieuwere servers, is het uitzoeken van de dichtheid in het rack en het verkrijgen van vloeistofkoeling in het rack.”
Alledged Third Bridge Forum-bericht (bron: @Jukanlosreve/X)
Een dergelijke toolkit zou effectief kunnen fungeren als een vertaallaag, waardoor AI-modellen die oorspronkelijk voor het ecosysteem van NVIDIA waren gebouwd, op de hardware van AMD konden draaien zonder dat een volledige en kostbare herschrijving nodig was.
Jarenlang is het CUDA-platform van NVIDIA zowel een krachtig hulpmiddel als een gouden kooi geweest voor AI-ontwikkelaars. Als een parallel computerplatform waarvan de robuuste bibliotheken er de industriestandaard van hebben gemaakt, heeft CUDA een krachtige ‘gracht’ gecreëerd die het moeilijk maakt voor concurrenten om marktaandeel te winnen.
Indien bevestigd, zouden de inspanningen van Microsoft een directe aanval op die gracht zijn. Hoewel AMD’s ROCm een capabel open-source alternatief is, zou een betrouwbaar conversiepad Microsoft’s Azure-klanten in staat stellen de kostenvoordelen van AMD-hardware te benutten zonder de vertrouwde CUDA-omgeving te verlaten.
Opties om CUDA uit te voeren met AMD-chips zijn al beschikbaar, zoals SCALE’s GPGPU-toolchain. Het efficiëntieverlies als gevolg van conversie blijft echter een voortdurend obstakel dat Microsoft blijkbaar wil aanpakken.
Een kostenbesparende actie voor de AI-inferentieboom
Gedreven door de stijgende kosten van AI-operaties, streven technologiegiganten nu agressief naar kostenbesparende maatregelen. De spreker in het transcript benadrukte dat de primaire motivatie achter de vermeende toolkit financieel is, vooral voor de inferentiefase van AI, waar getrainde modellen aan het werk worden gezet.
Aangezien AI-services zich uitbreiden naar miljoenen gebruikers, is inferentie verantwoordelijk voor een groot deel van de operationele kosten.
Een groeiende belangstelling voor kostenefficiëntie maakt de scherper geprijsde GPU’s van AMD een aantrekkelijk alternatief voor de duurdere hardware van NVIDIA, op voorwaarde dat de softwarebarrière kan worden overwonnen.
Behalve software. en chipkosten worden de beperkingen van fysieke datacenters een kritiek knelpunt. De bron in het transcript merkte op dat de fundamentele uitdaging niet langer alleen het veiligstellen van voldoende elektriciteit is, maar het effectief beheren ervan.
De focus op vermogensdichtheid en vloeistofkoeling benadrukt de enorme eisen die worden gesteld aan het huisvesten van AI-versnellers van de volgende generatie.
De sectorbrede poging om de CUDA-wurggreep te doorbreken
De vermeende strategie van Microsoft zou aansluiten bij een aanzienlijke, sectorbrede poging om een meer concurrerende AI-hardwaretoeleveringsketen te cultiveren. Voor NVIDIA, wiens marktleiderschap zowel op zijn software als op zijn silicium is gebaseerd, vertegenwoordigt deze trend een bedreiging op de lange termijn.
Oracle, een belangrijke speler op het gebied van cloudinfrastructuur, heeft onlangs een belangrijk partnerschap aangekondigd om 50.000 AMD AI-chips in te zetten. Karan Batta, Senior Vice President van Oracle Cloud, wees expliciet op de waarde van dit alternatief voor kostengevoelige workloads.
Het toonaangevende AI-onderzoekslaboratorium OpenAI zet ook beslissende stappen om zijn computerfundament te diversifiëren. Het smeedde een definitieve miljardenovereenkomst met AMD om 6 gigawatt aan GPU’s in te zetten.
Het partnerschap omvat een uniek warrant voor maximaal 160 miljoen aandelen, wat OpenAI een aandelenbelang van grofweg 10% in de chipmaker zou kunnen geven, wat hun doelstellingen diep op één lijn zou brengen.
Die trend van”coöpetitie”strekt zich zelfs uit tot historische rivalen. Intel is in gesprek om chips voor AMD te produceren, wat het strategische belang van een gediversifieerde toeleveringsketen voor halfgeleiders benadrukt.
Als de beweringen over de toolkit van Microsoft kloppen, werkt het bedrijf niet alleen aan het oplossen van een intern kostenprobleem, maar draagt het ook bij aan een bredere marktevolutie. Een succesvolle conversietool zou een toekomst van hardware-agnostische AI-ontwikkeling kunnen inluiden, waardoor ontwikkelaars worden bevrijd van de lock-in van een leverancier.
Een dergelijke potentiële verschuiving zou een nieuwe fase van rijping voor de hele AI-industrie markeren, van een hectische landroof naar een meer strategisch, multipolair ecosysteem.