Microsoft legger ut sin egen kurs i kappløpet om avansert AI. På torsdag kunngjorde selskapet et nytt «MAI Superintelligence Team» ledet av AI-sjef Mustafa Suleyman.
Gruppens mål er å bygge «Humanist Superintelligence», en kraftig AI som prioriterer menneskelig sikkerhet og kontroll. Dette strategiske skiftet følger etter et revidert partnerskap med OpenAI som nå lar Microsoft utvikle sine egne grunnleggende modeller.
Tiltaket signaliserer Microsofts økende uavhengighet og setter opp en direkte, sikkerhetsfokusert utfordring til konkurrenter i streben etter AI som kan overgå menneskelig intelligens.
Et nytt kapittel: Forging an AI Path Beyond OpenAI
Microsoft er nå frigjort fra det opprinnelige partnerskapets egen bane. kunngjøringen 6. november er det direkte resultatet av en landemerke ny avtale med OpenAI som ble avsluttet i slutten av oktober.
Denne avtalen endret fundamentalt deres allianse, og løste en omstridt”AGI-avtale”fra den opprinnelige 2. punkt 1-dommen fra den opprinnelige 9. Forskning på AGI-nivå.
Den gamle bestemmelsen var en eksistensiell trussel mot Microsofts strategi. Det kunne ha tillatt OpenAI ensidig å erklære at de hadde oppnådd AGI, og potensielt kuttet Microsofts tilgang til teknologien som driver hele produktøkosystemet.
Microsoft-sjef Satya Nadella hadde tidligere avvist ideen om en slik egenerklæring som”vi hevder selv en AGI-milepæl, det er bare en tullete referanse for hacking”
. fungerer mer som en konkurrent, slående infrastrukturavtaler med rivaler som Google Cloud og CoreWeave.
I henhold til de nye vilkårene må enhver AGI-erklæring verifiseres av et uavhengig panel, noe som gir avgjørende stabilitet. I bytte sikret Microsoft seg en eierandel på 27 % i OpenAIs nye for-profit-enhet og, viktigst av alt, den eksplisitte friheten til å forfølge AGI på sine egne premisser.
Selv om forholdet har utviklet seg, forblir det kommersielt symbiotisk. OpenAI har forpliktet seg til å kjøpe en inkrementell 250 milliarder dollar i Azure-skytjenester, noe som forsterker avhengigheten av Microsofts infrastruktur.
For Microsoft skaper dette et best-av-to-verdener-scenario: et stabilt partnerskap med garantert tilgang til OpenAIs modeller frem til 2032, kombinert med sine egne frontiersystemer3. «Humanist» Gambit: Prioritizing Safety in the Superintelligence Race
I en direkte utfordring til bransjens rådende «move fast and break things»-etos, utformer Microsoft AI-sjef Mustafa Suleyman teamets oppdrag rundt sikkerhet og kontroll.
Han argumenterer for at det er en farlig, ukontrollert bane som er en ukontrollert bane i intervjuet. Semafor,”Vi kan ikke bare akselerere for enhver pris. Det ville bare være et vanvittig selvmordsoppdrag.”
Suleymans filosofi sentrerer seg om å bygge systemer som er fundamentalt underordnet menneskelige interesser.
[innebygd innhold]
“Vi ønsker å lage typer systemer som er justert til menneskelige verdier som standard. Det betyr at de ikke er en menneskelig kontroll, og at de ikke er utformet for å overskride menneskelig kontroll.”href=”https://www.wsj.com/tech/ai/microsoft-lays-out-ambitious-ai-vision-free-from-openai-297652ff”target=”_blank”>fortalte til Wall Street Journal i et annet nylig intervju.
Denne tilnærmingen adresserer direkte et økende kor av bekymring fra eksperter og publikum om potensialet for ukrasj.
siden, i oktober, signerte over 800 globale ledere, fra Apple-grunnlegger Steve Wozniak til AI-pioner Yoshua Bengio, en uttalelse som krevde en stans i utviklingen av superintelligens til det kunne bevises trygt.
Innsatsen, organisert av Future of Life Institute, fremhevet en sterk kobling mellom tekniske ambisjoner og offentlig vilje.”Dette er ikke det publikum ønsker. De ønsker ikke å være i et kappløp for dette,”sa FLIs administrerende direktør Anthony Aguirre.
Ved å merke sitt nye laboratorium med et”humanistisk”oppdrag, innretter Microsoft seg offentlig etter denne forsiktige følelsen. Det representerer en strategisk innsats på at et rykte for sikkerhet vil være en nøkkeldifferensiator i et felt som i økende grad blir definert av eksistensiell risiko.
A House Divided: Microsoft’s Stability vs. Meta’s Chaos
Mens konkurrenter som Meta kjemper med internt kaos, posisjonerer Microsoft seg selv som en toppbastion av stabilitet for
. sterk. Metas AI-avdeling har vært i en tilstand av konstant, whiplash-induserende uro, et direkte resultat av sine egne interne utviklingssvikt, inkludert utsettelse av Llama 4-modellen.
Selskapet lanserte sine”Meta Superintelligence Labs”med stor bram 1. juli, bare for å demontere enheten etter en kaotisk restrukturering bare 50 dager senere. Det dyrt sammensatte”drømmeteamet”har allerede sett høyprofilerte avganger, med forskerne Avi Verma og Ethan Knight som returnerer til OpenAI etter bare uker på jobben.
Det å kjøpe talent har ikke løst Metas dypere problemer. Selskapet har siden permittert 600 AI-ansatte, og nye bedriftskontroller over det en gang åpne FAIR-forskningslaboratoriet har utløst internt sinne. Dette miljøet med konstant avgang står i skarp relieff for Microsofts bevisste, langsiktige strategi.
Talentkrigen utkjempes nå med mer enn bare nisifrede lønninger, en realitet Mark Zuckerberg erkjente da han la merke til at toppforskere nå sier:”Her sier folk:”Jeg vil ha færrest mulige mennesker som rapporterer til meg”og