AMD kunngjorde tirsdag at den nyeste maskinvaren støtter Openais nye `GPT-OSS`-modeller. Støtten er for de nyeste forbrukerproduktene, som Ryzen AI-brikker og Radeon grafikkort. I en nøkkel først sier AMD at Ryzen AI Max+ 395-brikken kan kjøre den enorme parametermodellen på 120 milliarder dollar på en lokal PC.
Dette bringer topp-tier AI ut av skyen og på hjemme-datamaskiner. Endringen gir raskere, mer private og offline AI-apper. Utviklere kan bruke LM Studio-verktøyet til å kjøre modellene i dag, noe href=”https://www.amd.com/no/blogs/2025/how-to-run-opnai-gpt-isser-20b-120b-Models-on-amd-ryzen-ai-radeon.html”Target=”_ blank”> hevder en verdens-first for sin forbruker Hardware . Selskap src=”https://winbuzzer.com/wp-content/uploads/2025/08/amd-openai-parntship.jpg”>
Dette er en betydelig milepæl. Det forskyver datasenterklasse AI-arbeidsmengder fra skyen til et skrivebord eller en bærbar PC. I følge AMD oppnår systemet en veldig brukbar ytelse på opptil 30 symboler per sekund, noe som gjør kompleks lokale AI til en praktisk virkelighet for utviklere og forskere.
[innebygd innhold]
De tekniske kravene er bratte, men forteller. `GPT-OSS-120B`-modellen trenger omtrent 61 GB VRAM. Dette passer innenfor 96 GB av dedikert grafikkminne tilgjengelig på den spesialiserte Ryzen Ai Max+ 395-plattformen, en evne AMD fremhevet nylig .
For de som jobber med den mindre, men fortsatt potente `GPT-OSS-20B`-modellen, peker AMD på Radeon 9070 XT 16 GB grafikkort. Selskap Adopsjon. De representerer en strategisk pivot for Openai.
Modellene er bygget på en effektiv blanding-av-ekspert (MOE) arkitektur. Denne utformingen aktiverer bare en brøkdel av de totale parametrene for en gitt oppgave, og reduserer beregningskostnadene drastisk og gjør dem levedyktige for utførelse på enheten.
Et kritisk stykke av dette nye økosystemet er ‘Harmony’, et obligatorisk chat-format Openai krever at modellene skal fungere riktig. Denne malen strukturerer modellens utgang i separate kanaler for resonnement, verktøybruk og det endelige svaret, og gir utviklere mer gjennomsiktig kontroll.
hvordan du kjører datasenter-skala AI på skrivebordet ditt i dag
AMD har gitt en AMD Software: Adrenalin Edition Drivere /(versjon>
Trosessen for å låse opp de nødvendige. Avlasting av alle beregningslag til GPU, og deretter laste modellen i minnet. Mens 120B-modellen kan ta tid å laste på grunn av størrelsen, er resultatet en kraftig resonnementmotor som går helt lokalt.
En koordinert lansering for å bygge en ny åpen standard
AMDs kunngjøring skjedde ikke i et vakuum. Det var en sentral del av en nøye orkestrert bransjebegivenhet designet for å etablere `GPT-ISS` og harmoni som en ny standard. Microsoft avduket sine Windows AI Foundry og Foundry lokale plattformer for å kjøre modellene på Windows og MacOS.
I et overraskende trekk av”Co-Opetition”kunngjorde AWS at de ville tilby modellene på sin Amazon Bedrock og Sagemaker-tjenester, og ga Openai en større distribusjonskanal utover Microsofts Azure. Qualcomm ble også med, og muliggjorde støtte på enheter for Snapdragon-drevne PC-er.
Denne brede støtten signaliserer et strategisk press fra Openai for å gjenvinne innflytelse i open source-samfunnet. Analytikere antyder at”delvis handler dette om å hevde Openais dominans i forskningsøkosystemet.”Dette følelsen gjenspeiles i Openais egen innramming av utgivelsen, med selskapet som sier at”bred tilgang til disse dyktige open-Weights-modellene som er opprettet i USA, hjelper til med å utvide demokratiske AI-skinner.”
Flyttingsposisjonene Openai for å konkurrere direkte med open source-rivaler som Meta. Ved å tilby kraftige, tilgjengelige og vidt støttede modeller, lager selskapet en overbevisende sak for sitt økosystem. Som Microsofts Asha Sharma bemerket,”For første gang kan du kjøre Openai-modeller som GPT-OSS-12BB på en enkelt Enterprise GPU-eller kjøre GPT-OSS-20B lokalt.”fremheve den nye hybrid AI-virkeligheten