Openai martedì ha rilasciato GPT-OSS-120B e GPT-OS-20B, i suoi primi modelli a peso aperto dal 2019. Questa mossa segna un grande cambiamento strategico per il laboratorio AI, che ha affrontato critiche per i suoi sistemi chiusi. I nuovi modelli sono disponibili con una licenza Apache 2.0 permissiva.

Ciò consente agli sviluppatori di scaricare, eseguire e modificarli liberamente su hardware locale. Il rilascio mira a contrastare la crescente popolarità di modelli aperti da rivali come meta e le compagnie tecnologiche cinesi. Riegostando nuovamente con la comunità open source, Openi spera di stabilire nuovi standard di sicurezza.

Un tanto atteso ritorno alle radici open-weight

Il rilascio termina un periodo lungo e controverso in cui l’azienda, spesso popolare”chiusa”, focalizzata esclusivamente su proprietary apis. Questo perno strategico segna la sua prima versione del modello di lingua aperta da GPT-2 nel 2019, affrontando direttamente anni di feedback e frustrazione della comunità.

Questo ritorno ai principi di peso aperto è stato preso in giro per la prima volta dal CEO Sam Altman ad aprile. L’annuncio segue due ritardi frustranti a giugno e luglio, rendendo il lancio di oggi un attento adeguato a quella promessa per sviluppatori e ricercatori che apprezzano la trasparenza e la personalizzazione.

Il lancio chiarisce anche settimane di intense speculazioni alimentate dall’aspetto misterioso di”Horizon Alpha”e”Horizon Beta”su piattaforme come Openscoter. Quei modelli non attribuiti e ad alte prestazioni sono ora intesi come anteprime invisibili per il rilascio ufficiale GPT-OSS.

Abbiamo rilasciato due modelli di ragionamento a peso aperto-GPT-OSS-120B e GPT-OS-20B-Apache 2.0 Licenza. href=”https://t.co/pdkhqdqcpf”target=”_blank”> https://t.co/pdkhqdqcpf

-openi (@openai) 5 agosto 2025

da una prospettiva del prodotto, il timing è critico. Affronta un divario significativo nel portafoglio di Openi, come notato da Casey Dvorak, un responsabile del programma di ricerca presso OpenAI. Egli spiegato ,”perché non esiste un modello Open-Open di Open-Open di Open, in realtà per consentire la nostra diva Consiglio.”

Ciò consente all’azienda di competere per gli sviluppatori che preferiscono o richiedono modelli a livello locale per la sicurezza dei dati, minori costi o perfezionamenti su attività specializzate. Oltre a colmare un divario del prodotto, la mossa riguarda anche l’influenza di recupero. Peter Henderson, an assistant professor at Princeton University, suggests, “in part, this is about reasserting OpenAI’s dominance in the research Ecosistema.”

L’importanza strategica è accentuata quando Meta, il leader di lunga data nell’intelligenza artificiale americana open source, potrebbe riorientarsi verso le versioni chiuse. Il perno di Openai si posiziona per diventare il nuovo campione per la comunità open source, catturando sviluppatori e ricercatori che cercano un’alternativa potente e autorizzata in licenza.

Sotto il cofano: prestazioni e accessibilità

La nuova versione include due modelli, GPT-ES-120b e GPT-20B, con 117 miliari, rispettivamente. Both are built on a Mixture-of-Experts (MoE) architecture, a key design choice for maximizing performance while minimizing computational cost, according to OpenAI’s announcement.

This MoE design means only a fraction of the models’ parameters are active for any given task. Il modello GPT-OSS-120B, ad esempio, attiva solo 5,1b dei suoi parametri di 117b per token. Questa efficienza è ulteriormente migliorata dalla quantizzazione nativa al formato MXFP4, riducendo drasticamente l’impronta di memoria.

Questa architettura avanzata rende i modelli altamente accessibili. Il più piccolo GPT-OSS-20B può funzionare su dispositivi di consumo con soli 16 GB di RAM, mentre il modello da 120B più grande richiede solo una singola GPU da 80 GB, un pezzo di hardware comune nelle workstation professionali. Entrambi i modelli sono disponibili per il download su abbraccio faccia .

Sulle prestazioni, i modelli pugni ben al di sopra del loro peso. Secondo la scheda modello ufficiale, GPT-OSS-120B raggiunge la quasi parità con O4-Mini proprietario di Openi sui benchmark di ragionamento di base e persino supera su test specializzati come Healthbench e il concorso AIME Math. Il più piccolo GPT-OSS-20B mostra una competitività simile contro il modello O3-Mini.

Come GPT-OSS si scontra contro i concorrenti

mentre si confrontano con i benchmark primari di Openi. I dati, del campo, in particolare in domini specializzati.

su una serie di valutazioni incentrate sulla biologia progettate per misurare il potenziale di uso improprio, un GPT-OS-120b messo a punto ha sovraperformato costantemente i suoi rivali. Ad esempio, sulla”conoscenza del biorisk tacito e la risoluzione dei problemi”, ha segnato 75.7, davanti a Kimi 2 (74.6), Deepseek R1 (68.7) e Qwen3 pensando (67.8).

Allo stesso modo, su un nuovo test per la risoluzione dei problemi, i modelli di concorrenza sono stati trovati in modo migliore per i modelli di concorrenza”. Documento di ricerca. Le valutazioni esterne gestite da SecureBio hanno inoltre confermato che GPT-OS funziona meglio di DeepSeek-R1-0528 sia con che senza uno strumento di navigazione.

Tuttavia, Openai aggiunge un contesto cruciale a questi risultati. Mentre il suo modello perfezionato spesso conduce il pacchetto, il documento conclude che sulla maggior parte delle valutazioni,”esiste già un altro modello di modello a peso aperto in o vicino a GPT-OS”. Ciò suggerisce che, sebbene GPT-OSS fa avanzare la frontiera, non crea un salto drammatico e senza precedenti in capacità sull’ecosistema open source esistente.

Per gli sviluppatori, i modelli sono progettati per un uso immediato e pratico. Sono pienamente compatibili con l’API delle risposte di Openi, che è stata migliorata a maggio con un maggiore supporto per utensili. Questa integrazione consente sofisticati flussi di lavoro agenti con forti funzionalità di following delle istruzioni e di utilizzo degli strumenti.

Le caratteristiche chiave includono l’accesso completo alla catena di pensiero del modello (COT) per il ragionamento trasparente, il supporto per le uscite strutturate e la capacità di regolare lo sforzo di ragionamento tra impostazioni basse, medie e alte tramite un semplice prompt di sistema. Questa flessibilità consente agli sviluppatori di bilanciare prestazioni, costi e latenza per le loro applicazioni specifiche.

Questa prestazione, combinata con la loro accessibilità e set di caratteristiche profonde, rende i modelli GPT-OSS una nuova potente opzione per gli sviluppatori che cercano di costruire agenti complessi o eseguire modelli in grado di mettere a punto La pietra angolare di questa versione è una vasta ricerca sulla sicurezza di Openi. L’azienda ha studiato scenari peggiori in modo peggiore attraverso un processo che chiama”perfezionamento dannoso”(MFT). I ricercatori hanno cercato intenzionalmente di rendere dannosi i modelli, un processo esaminato da esperti esterni.

Hanno messo a punto GPT-OS-120B per massimizzare le sue capacità in biologia e sicurezza informatica. L’obiettivo era vedere se un aggressore potesse creare uno strumento pericoloso. I risultati, I modelli.

Anche dopo questa sintonizzazione contraddittoria, i modelli non hanno raggiunto la soglia di capacità”alta”per la creazione di significative minacce biologiche o informatiche. Openi ha concluso che il rilascio non fa sostanzialmente avanzare la frontiera del rischio rispetto ai modelli aperti già disponibili.

L’angolo geopolitico: competere in un campo affollato

Questa versione è innegabilmente un risposta strategica a un paesaggio AI spostante . La serie Llama di Meta ha dominato a lungo la scena del modello aperto degli Stati Uniti. Più recentemente, i modelli cinesi di DeepSeek e Alibaba hanno guadagnato una significativa trazione a livello globale.

Openi ha incorniciato esplicitamente il rilascio in termini geopolitici. Nel suo annuncio, la società ha dichiarato:”Un ampio accesso a questi capaci modelli di beni aperti creati negli Stati Uniti aiuta ad espandere le rotaie di intelligenza artificiale democratica”. Questo sentimento è ripreso dagli analisti. Peter Henderson della Princeton University ha osservato che”i modelli aperti sono una forma di soft power”, suggerendo una strategia più ampia per mantenere l’influenza degli Stati Uniti nello sviluppo dell’IA.

Rishi Bommasani di Stanford ha notato che Openai ha precedentemente segnalato che vuole essere visto come vitale per il sistema statunitense e la concorrenza tecnologica US-Cina, secondo un rapporto . Questa versione allinea la società con un interesse nazionale nel promuovere un ecosistema open source interno.

La licenza Apache 2.0 permissiva è una parte fondamentale di questa strategia. Nathan Lambert dell’Allen Institute for Ai ha elogiato la scelta, affermando:”È un’ottima cosa per la comunità aperta”. Ciò contrasta con le licenze personalizzate più restrittive utilizzate da alcuni concorrenti e incoraggia l’adozione più ampia.

I modelli sono immediatamente accessibile agli sviluppatori in tutto il mondo .

Categories: IT Info