Microsoft accelererar sin interna utveckling av AI-chip genom att licensiera egenutvecklad hårdvara och systemdesign från sin partner OpenAI, bekräftade VD Satya Nadella denna vecka. Det strategiska draget, som avslöjades i intervjuer den 13 november, ger Microsoft tillgång till OpenAI:s anpassade kisel-IP, som utvecklas tillsammans med Broadcom.

Detta gör det möjligt för Redmond-jätten att snabba upp sina egna AI-acceleratorer och bygga en mer vertikalt integrerad hård-och mjukvarustack.

Affären fördjupar de två företagens partnerskap och bättre kontroll över Microsofts 2032-partnerskap. infrastrukturkostnader och färdplan, vilket markerar ett viktigt steg i den eskalerande kapprustningen för AI-hårdvara.

Det här arrangemanget, som ger Microsoft tillgång till OpenAIs chipforskning fram till 2030, är utformat för att låta företaget industrialisera och utveckla tekniken under sin egen IP.

Denna vertikala integration är en kärnkomponent i Microsofts tvåspåriga AI-strategi. Samtidigt som företaget fortsätter att utnyttja OpenAI:s gränsmodeller, investerar företaget också mycket i sin egen kapacitet, inklusive MAI-familjen av modeller och anpassade acceleratorer som Maia.

Genom att licensiera OpenAI:s beprövade design, kan Microsoft minska risken och påskynda sin egen chiputveckling, en avgörande fördel på en marknad som domineras av Sap> Napella på nyligen NVIDIA. Dwarkesh Patel-utsändningen säkerställer detta att Microsoft har en långsiktig, flexibel väg framåt.

“Vi kommer att ha tillgång till OpenAI-modeller i sju år till, som vi kommer att förnya oss på. I grund och botten ser jag på oss själva som att vi har en gränsmodell som vi kan använda och förnya oss på med full flexibilitet,”sa Nadella, det solida strategiska innehållet och det nya finansiella avtalet.

band mellan de två företagen.

Det inkluderade att Microsoft förvärvade 27 % av aktierna i OpenAI:s allmännyttiga företag, till en värdering av cirka 135 miljarder dollar, och klargör att Microsoft kommer att behålla tillgången till OpenAI:s modeller även efter att potentiella AGI-milstolpar har nåtts.

Nadella har varit tydlig med företagets nya ambition, här kan vi säga att företagets nya ambition är mycket bra. mycket tydligt att vi kommer att bygga ett superintelligensteam i världsklass och gå efter det med en hög ambition.”

Från en”stor paus”till en vertikalt integrerad framtid

Nadellas kommentarer ger också en avgörande kontext för företagets senaste infrastrukturstrategi.

Denna period fick konkurrenter som Oracle massiva datorkontrakt för flera miljarder dollar med OpenAI, vilket ledde till spekulationer om att Microsoft hade fumlat om sin ledning.

Men Nadella omformulerar denna period som ett generationsavsiktligt och mer avsiktligt drag för att undvika ett mer medvetet låst drag för att undvika att skapa ett mer fungibelt, låsbart drag. flotta.

Han hävdar att den primära begränsningen för AI-expansion inte är tillgången på chips, utan av drivna och kylda datacenterutrymmen, eller”varma skal.”

Att bygga för mycket kapacitet optimerad för en generations hårdvara skulle vara ett enormt slöseri med kapital.”Du kan inte bygga en infrastruktur som är optimerad för en modell,”sa Nadella.”Om du gör det, tänk om du hamnar på efterkälken? Faktum är att all infrastruktur du byggt kommer att vara ett slöseri.”

Denna filosofi belyser de enorma finansiella insatserna av AI-utbyggnaden, där hyperscaler capex närmar sig 400 miljarder dollar årligen och gör jämförelser med dot-com-bubblan.

Beslutet att licensiera IPnar passar perfekt in i detta öppna IP-ar. Det gör det möjligt för Microsoft att bygga anpassad, högoptimerad hårdvara som är samdesignad med modellerna som den kommer att köra, vilket förbättrar effektiviteten och sänker långsiktiga driftskostnader.

Flytet mot vertikal integration är ett direkt svar på de enorma kostnaderna och konkurrenstrycket från AI-kapprustningen.

Navigera en Multi-Model, Multi-Vendor Armees kiselpartnerskap med OpenAI, Microsoft säkrar samtidigt sina satsningar över AI-ekosystemet.

Företaget arbetar aktivt för att minska sitt beroende av en enskild hårdvaru-eller modellleverantör. En obekräftad utskrift som cirkulerar online från en påstådd Microsoft-anställd tyder på att företaget tacklar NVIDIAs mjukvarudominans direkt.

“Vi byggde några verktygssatser för att hjälpa till att konvertera som CUDA-modeller till ROCm så att du kan använda den på en AMD, som en 300X”, hävdade källan.

Ett sådant verktyg skulle göra det möjligt för Azure att köra kritiska AI-arbetsbelastningar på mer kostnadseffektiv AMD-hårdvara, vilket bryter den kraftfulla CUDA-vallgraven.

Denna hårdvarustrategi med flera leverantörer speglar Microsofts tillvägagångssätt på applikations-och modellskiktet. Företaget möter ökande konkurrens även från partners som Anthropic, som nyligen lanserade”Claude for Excel”för att konkurrera direkt med Microsofts egna Copilot-funktioner i sin flaggskeppsprodukt.

Istället för att blockera sådana rörelser har Microsoft anammat en strategi för flera modeller och integrerat Anthropics modeller i sina egna erbjudanden.

I september kan den officiellt integreras Anthropic som en användarmodell till Claude. OpenAI inom Microsoft 365 Copilot, vilket ger företagskunder fler valmöjligheter.

Detta positionerar Azure inte bara som en leverantör för OpenAI, utan som en grundläggande plattform för ett mångsidigt ekosystem av konkurrerande AI-modeller och verktyg. Genom att kontrollera den underliggande infrastrukturen från molnplattformen ner till det anpassade kiseln, strävar Microsoft efter att förbli den oumbärliga grunden för hela AI-branschen, oavsett vilken modell eller applikation som vinner någon speciell kamp.

Categories: IT Info