Microsoft lägger ut sin egen kurs i kapplöpningen för avancerad AI. På torsdagen tillkännagav företaget ett nytt”MAI Superintelligence Team”som leds av AI-chefen Mustafa Suleyman.

Gruppens mål är att bygga”Humanist Superintelligence”, en kraftfull AI som prioriterar mänsklig säkerhet och kontroll. Detta strategiska skifte följer på ett reviderat partnerskap med OpenAI som nu gör det möjligt för Microsoft att utveckla sina egna grundmodeller.

Förslaget signalerar Microsofts växande oberoende och skapar en direkt, säkerhetsfokuserad utmaning för konkurrenter i jakten på höginsats för AI som kan överträffa mänsklig intelligens.

Ett nytt kapitel: Forging an AI Path Beyond OpenAI

Befriad från sitt ursprungliga partnerskap, Microsoft är nu befriad från sitt ursprungliga partnerskaps begränsningar. meddelandet den 6 november är det direkta resultatet av ett landmärke nytt avtal med OpenAI som slutfördes i slutet av oktober.

Det avtalet omformade i grunden deras allians och löste en omtvistad”AGI-klausul”från och med den 2:e utgångspunkten för Microsofts tidigare undergångsperiod 19. Forskning på AGI-nivå.

Den gamla bestämmelsen var ett existentiellt hot mot Microsofts strategi. Det kunde ha gjort det möjligt för OpenAI att ensidigt deklarera att de hade uppnått AGI, vilket potentiellt skulle avbryta Microsofts tillgång till tekniken som driver hela dess produktekosystem.

Microsofts vd Satya Nadella hade tidigare avfärdat idén om en sådan självdeklaration som att”vi själv hävdar en AGI-milstolpe, det är bara nonsensiskt riktmärke för att hacka

.”agerar mer som en konkurrent, slående infrastrukturavtal med rivaler som Google Cloud och CoreWeave.

I enlighet med de nya villkoren måste alla AGI-deklarationer verifieras av en oberoende panel, vilket ger avgörande stabilitet. I utbyte säkrade Microsoft en andel på 27 % i OpenAI:s nya vinstdrivande enhet och, viktigast av allt, den uttryckliga friheten att driva AGI på sina egna villkor.

Medan förhållandet har utvecklats är det fortfarande kommersiellt symbiotiskt. OpenAI har förbundit sig att köpa inkrementella 250 miljarder USD i Azure molntjänster, vilket förstärker dess beroende av Microsofts infrastruktur.

För Microsoft skapar detta ett scenario av det bästa av båda världar: ett stabilt partnerskap med garanterad tillgång till OpenAI:s modeller fram till 2032, tillsammans med sina egna frontier3-system.”Humanist”Gambit: Prioritizing Safety in the Superintelligence Race

I en direkt utmaning mot branschens rådande etos”förflytta dig snabbt och bryt saker”formulerar Microsoft AI-chefen Mustafa Suleyman sitt teams uppdrag kring säkerhet och kontroll.

Han hävdar att den nya vägen är en okontrollerad, okontrollerad intervju. Semafor,”Vi kan inte bara accelerera till varje pris. Det skulle bara vara ett galet självmordsuppdrag.”

Suleymans filosofi fokuserar på att bygga system som i grunden är underordnade mänskliga intressen.

[inbäddat innehåll]

“Vi vill skapa typer av system som är anpassade till mänskliga värderingar som standard.”href=”https://www.wsj.com/tech/ai/microsoft-lays-out-ambitious-ai-vision-free-from-openai-297652ff”target=”_blank”>berättade för The Wall Street Journal i en annan intervju nyligen.

Det här tillvägagångssättet riktar sig direkt till en växande kör av oro från experter och allmänheten om potentialen för oro. sedan, i oktober, undertecknade över 800 globala ledare, från Apples grundare Steve Wozniak till AI-pionjären Yoshua Bengio, ett uttalande som krävde ett stopp för utvecklingen av superintelligens tills det kunde bevisas säkert.

Insatsen, som organiserades av Future of Life Institute, visade på en skarp koppling mellan tekniska ambitioner och allmänhetens vilja.”Det här är inte vad allmänheten vill ha. De vill inte vara med i en kapplöpning om det här,”sa FLI:s verkställande direktör Anthony Aguirre.

Genom att märka sitt nya labb med ett”humanistiskt”uppdrag, anpassar sig Microsoft offentligt till denna försiktiga känsla. Det representerar en strategisk satsning på att ett rykte om säkerhet kommer att vara en nyckelfaktor inom ett område som i allt högre grad definieras av existentiella risker.

A House Divided: Microsoft’s Stability vs. Meta’s Chaos

Medan konkurrenter som Meta brottas med internt kaos, är Microsoft positionerar sig som en toppbastion av stabilitet för

.

skarp. Metas AI-division har befunnit sig i ett tillstånd av konstant, whiplash-inducerande turbulens, ett direkt resultat av dess egna interna utvecklingsmisslyckanden, inklusive uppskjutandet av dess Llama 4-modell.

Företaget lanserade sina”Meta Superintelligence Labs”med stor fanfar den 1 juli, bara för att demontera enheten under en kaotisk omstrukturering bara 50 dagar senare. Dess dyrt sammansatta”drömteam”har redan sett högprofilerade avgångar, med forskarna Avi Verma och Ethan Knight som återvänder till OpenAI efter bara veckor på jobbet.

Att bara köpa talang har inte löst Metas djupare problem. Företaget har sedan dess sagt upp 600 AI-anställda, och nya företagskontroller över dess en gång öppna FAIR-forskningslabb har väckt intern ilska. Denna miljö av konstant churn står i skarp relief till Microsofts avsiktliga, långsiktiga strategi.

Talangkriget utkämpas nu med mer än bara niosiffriga löner, en verklighet som Mark Zuckerberg erkände när han noterade att toppforskare nu säger:”Här säger folk,’Jag vill att det minsta antalet människor som rapporterar till mig är

som är

> den mjukaste.”ett tydligt uppdrag och en stabil kultur kommer att visa sig vara den mest värdefulla tillgången av alla i maratonloppet för superintelligens.

Categories: IT Info