AMD ha annunciato martedì che il suo ultimo hardware supporta i nuovi modelli `GPT-OSS` di Openi. Il supporto è per i suoi ultimi prodotti di consumo, come Ryzen AI Chips e Radeon Graphics. In una chiave prima, AMD afferma che il suo chip Ryzen Ai Max+ 395 può eseguire l’enorme modello di parametri da 120 miliardi su un PC locale.
Questo porta AI di livello superiore fuori dal cloud e sui computer domestici. La modifica consente app AI più veloci, più private e offline. Gli sviluppatori possono utilizzare lo strumento LM Studio per eseguire i modelli oggi, rendendo più facile l’accesso alla potente AI.
AMD rivendica un consumatore per primo per il dispositivo AI
in una mossa che ridefinisce AI sul dispositivo, amd sostiene un primo primo posto per il suo hardware consumer . La società ha annunciato il suo processore Ryzen Ai Max+ 395, quando configurato con 128 GB di RAM, è il primo chip di consumo in grado di eseguire localmente il enorme parametro di 117 miliardi di miliardi di Openi src=”https://winbuzzer.com/wp-content/uploads/2025/08/amd-openai-parntereship.jpg”>
Questa è una pietra miliare significativa. Sposta i carichi di lavoro AI di classe Datacenter dal cloud a un desktop o un laptop. Secondo AMD, il sistema ottiene una performance molto utilizzabile fino a 30 token al secondo, rendendo l’intelligenza artificiale complessa una realtà pratica per sviluppatori e ricercatori.
[contenuto incorporato]
I requisiti tecnici sono ripidi ma raccontati. Il modello `GPT-OSS-120B` richiede circa 61 GB di VRAM. Questo si adatta al 96 GB della memoria grafica dedicata disponibile sulla piattaforma Specialized Ryzen AI Max+ 395, una capacità amd recentemente evidenziato .
Per coloro che lavorano con il modello `GPT-20B` più piccolo ma ancora potente, AMD punta alla sua scheda grafica Radeon 9070 XT 16 GB. La società sottolinea il suo eccellente time-to-token (TTFT), che garantisce prestazioni reattive per flussi di lavoro agenti che si basano su output iniziali rapidi.
[contenuto incorporato]
Questo elaborazione hardware è parte di un massiccio e vasto lancio per l’adozione di Openai di Openai di Openai di Openai Openai di Openai OpenAI ApriAi Affai. Rappresentano un perno strategico per OpenAI.
I modelli sono costruiti su un’architettura efficiente della miscela di esperti (MOE). Questo design attiva solo una frazione dei parametri totali per ogni compito, riducendo drasticamente il costo computazionale e rendendoli vitali per l’esecuzione sul dispositivo.
Un pezzo critico di questo nuovo ecosistema è”armonia”, un formato di chat obbligatorio Openai richiede che i modelli possano funzionare correttamente. Questo modello struttura l’output del modello in canali separati per il ragionamento, l’uso dello strumento e la risposta finale, dando agli sviluppatori un controllo più trasparente.
Come eseguire AI su scala dati sul tuo banco oggi
AMD ha fornito un Clear Path per iniziare
Il processo si è verificato in edizione ` Scaricare tutti i livelli computazionali sulla GPU e quindi caricare il modello in memoria. Mentre il modello da 120B può richiedere del tempo per caricare a causa delle sue dimensioni, il risultato è un potente motore di ragionamento che funziona completamente a livello locale.
Un lancio coordinato per costruire un nuovo standard aperto
L’annuncio di AMD non è avvenuto nel vuoto. È stata una parte fondamentale di un evento con cura del settore con cura progettato per stabilire”GPT-OSS` e Harmony come nuovo standard. Microsoft ha svelato le sue piattaforme locali di Windows Ai Foundry e Foundry per eseguire i modelli su Windows e MacOS.
In una mossa sorprendente di”Cooperazione”, AWS ha annunciato che avrebbe offerto i modelli sui suoi servizi di letto e sagemaker Amazon, dando a Openai un importante canale di distribuzione oltre Azure di Microsoft. Qualcomm si è anche unito, consentendo il supporto sul dispositivo per i PC a propulsione a Snapdragon.
Questo ampio supporto segnala una spinta strategica da parte di Openi per recuperare l’influenza nella comunità open source. Gli analisti suggeriscono che”in parte, si tratta di riaffermare il dominio di Openi nell’ecosistema della ricerca”. Questo sentimento è echeggiato nell’inquadratura del comunicato di Openai, con la società che afferma che”Accesso ampio a questi modelli abili-open weights creati negli Stati Uniti aiuta ad espandere le rotaie dell’IA democratica.”
Le posizioni di mossa aperte per competere direttamente con i rivali open-source come Meta. Fornendo modelli potenti, accessibili e ampiamente supportati, la società sta facendo un caso convincente per il suo ecosistema. Come ha osservato Asha Sharma di Microsoft,”Per la prima volta, è possibile eseguire modelli OpenAI come GPT-OSS-120B su una singola GPU aziendale, o eseguire GPT-OSS-20B a livello locale.”Evidenziazione della nuova realtà ibrida AI