Openai heeft dinsdag GPT-OSS-120B en GPT-OSS-20B uitgebracht, de eerste open-gewichtsmodellen sinds 2019. Deze beweging markeert een belangrijke strategische verschuiving voor het AI Lab, dat kritiek heeft opgelegd op zijn gesloten systemen. De nieuwe modellen zijn beschikbaar onder een permissieve Apache 2.0-licentie.
Hierdoor kunnen ontwikkelaars deze vrijelijk downloaden, uitvoeren en wijzigen op lokale hardware. De release is bedoeld om de groeiende populariteit van open modellen tegen te gaan van rivalen zoals Meta en Chinese technische bedrijven. Door opnieuw in te gaan op de open-source community, hoopt Openai nieuwe veiligheidsnormen in te stellen.
Een langverwachte terugkeer naar open gewicht wortels
De release eindigt een lange en omstreden periode waarin het bedrijf, vaak pejoratief’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’gesloten’uitsluitend op proprietaire apis eindigt. Deze strategische pivot markeert zijn eerste open-gewichtstaalmodel-release sinds GPT-2 in 2019, met rechtstreeks aanpakken van jaren van community feedback en frustratie.
>
Deze terugkeer naar open-gewichtsprincipes werd in april voor het eerst geplaagd door CEO Sam Altman. De aankondiging volgt op twee frustrerende vertragingen in juni en juli, waardoor de lancering van vandaag een langverwachte vervulling is van die belofte voor ontwikkelaars en onderzoekers die de transparantie en aanpasbaarheid waarderen.
De lancering verduidelijkt ook weken van intense speculatie die wordt gevoed door het mysterieuze uiterlijk van het mysterieuze uiterlijk van”Horizon Alpha”en”Horizon Beta”Modellen op platforms zoals Openrouter. Die niet-toegeschreven, goed presterende modellen worden nu gezien als stealth-previews voor de officiële GPT-OSS-release.
We hebben twee open-weight redeneermodellen uitgebracht-GPT-OSS-OSS-120B en GPT-OSS-20B-onder een Apache 2.0-licentie.
Gevestigde community Feedback. href=”https://t.co/pdkhqdqcpf”target=”_blank”> https://t.co/pdkhqdqcpf
-openai (@openai) 5 augustus 2025
van een productperspectief, de timing is kritiek. Het behandelt een aanzienlijke kloof in de portfolio van Openai, zoals opgemerkt door Casey Dvorak, een onderzoeksprogrammamanager bij Openai. Hij uitgelegd ,”omdat er geen [concurrerende] open model is om te gebruiken die gap en daadwerkelijk toestaan om die gap te gebruiken en daadwerkelijk toe te staan om die gap te gebruiken en daadwerkelijk toe te staan om dat te gebruiken en daadwerkelijk toe te staan dat ze die gap gebruiken en daadwerkelijk toestaan om die gap te gebruiken. Board.”
Hierdoor kan het bedrijf concurreren voor ontwikkelaars die de voorkeur geven aan of lokale modellen nodig hebben voor gegevensbeveiliging, lagere kosten of verfijning op gespecialiseerde taken. Naast het vullen van een productkloof, gaat de verhuizing ook over het terugwinnen van invloed. Peter Henderson, een universitair docent aan de Princeton University, suggereert , is in deels gereserveerd. Ecosysteem.”
Het strategische belang wordt verhoogd omdat de meta, de oude leider in Amerikaanse open-source AI, kan heroriënteren naar gesloten releases. Openai’s pivot positioneert het om de nieuwe kampioen voor de open-source community te worden, die ontwikkelaars en onderzoekers op zoek zijn naar een krachtig, permanent gelicentieerd alternatief.
onder de kap: prestaties en toegankelijkheid
De nieuwe release omvat twee modellen, GPT-oss-oss-oss-oss-oss-10b, met 117 billion en 21 billion totale parameters, met 117 miljard en 21 billion totale parameters, met 117 miljard en 21 billion totale parameters, respectievelijk. Beide zijn gebaseerd op een mixen-of-experts (MOE)-architectuur, een belangrijke ontwerpkeuze voor het maximaliseren van de prestaties, terwijl het minimaliseren van computationele kosten, Volgens opening van open taak. Het GPT-OSS-120B-model activeert bijvoorbeeld slechts 5,1B van zijn 117B-parameters per token. Deze efficiëntie wordt verder verbeterd door native kwantisatie naar het MXFP4-formaat, waardoor de geheugenvoetafdruk drastisch wordt verminderd.
Deze geavanceerde architectuur maakt de modellen zeer toegankelijk. De kleinere GPT-OSS-20B kan op consumentenapparaten worden uitgevoerd met slechts 16 GB RAM, terwijl het grotere 120B-model slechts een enkele 80 GB GPU vereist, een gemeenschappelijk stuk hardware in professionele werkstations. Beide modellen zijn beschikbaar om te downloaden op knuffelende gezicht .
Op prestaties slaan de modellen goed boven hun gewicht. Volgens de officiële modelkaart bereikt GPT-OSS-120B bijna pariteit met de eigen O4-Mini van Openai op de redeneringsbenchmarks van kern en zelfs beter dan het op gespecialiseerde tests zoals HealthBench en de Aime Math Competition. De kleinere GPT-OSS-20B vertoont een vergelijkbaar concurrentievermogen tegen het O3-Mini-model.
hoe GPT-OSS stapelt tegen concurrenten
Terwijl de primaire benchmarks van Openai GPT-OSS vergelijken met zijn eigen eigen modellen, biedt het veiligheidsonderzoek een zeldzame, directe, direct, direct over hoe de nieuwe modellen worden geactiveerd, de nieuwe modellen die de nieuwe modellen uitvoeren, een zeldzame, direct kijkt naar hoe de nieuwe modellen worden geactiveerd. De gegevens, gepubliceerd in een begeleidende paper , positions gpt Het veld, met name in gespecialiseerde domeinen.
Op een reeks biologie-gerichte evaluaties die zijn ontworpen om het potentieel voor misbruik te meten, heeft een fijn afgestemde GPT-OSS-120B consequent beter gepresteerd dan zijn rivalen. Bijvoorbeeld, op de”Biorisk tacit kennis en probleemoplossing”Benchmark, scoorde het 75.7, vóór Kimi 2 (74.6), Deepseek R1 (68.7) (68.7), en Qwen3 denken (67.8). Onderzoekspaper. Externe evaluaties uitgevoerd door SecureBio hebben verder bevestigd dat GPT-OSS beter presteert dan Deepseek-R1-0528 zowel met als zonder een browsetool.
Openai voegt echter een cruciaal stuk context toe aan deze resultaten. Hoewel het verfijnde model vaak het pakket leidt, concludeert het artikel dat bij de meeste evaluaties:”er al een ander open gewichtsmodel bestaat dat scoort op of nabij GPT-Oss.”Dit suggereert dat hoewel GPT-Oss de grens voortschrijdt, het geen dramatische, ongekende sprong creëert in mogelijkheden ten opzichte van het bestaande open-source ecosysteem.
Voor ontwikkelaars zijn de modellen ontworpen voor onmiddellijk, praktisch gebruik. Ze zijn volledig compatibel met de antwoorden van Openai’s API, die in mei werd verbeterd met meer gereedschapsondersteuning (voorheen op Winbuzzer). Deze integratie maakt geavanceerde agentische workflows mogelijk met sterke instructies en gereedschapsgebruikmogelijkheden.
Belangrijke kenmerken zijn volledige toegang tot de ketting van het model (COT) voor transparant redeneren, ondersteuning voor gestructureerde uitgangen en de mogelijkheid om de redeneringsinspanning tussen lage, gemiddelde en hoge instellingen aan te passen via een eenvoudige systeemprompt. Deze flexibiliteit stelt ontwikkelaars in staat om prestaties, kosten en latentie voor hun specifieke toepassingen in evenwicht te brengen.
Deze prestaties, gecombineerd met hun toegankelijkheid en diepe functieset, maakt de GPT-OSS-modellen een krachtige nieuwe optie voor ontwikkelaars die complexe agenten willen bouwen of capabele modellen uitvoeren op hun eigen infrastructuur.
Proactieve veiligheid: MISSICE: MISROFICTE: Cornerstone van deze release is het uitgebreide veiligheidsonderzoek van Openai. Het bedrijf bestudeerde proactief slechtste scenario’s door een proces dat het”kwaadwillende verfijning”(MFT) noemt. Onderzoekers probeerden opzettelijk de modellen schadelijk te maken, een proces dat werd beoordeeld door externe experts.
Ze hebben GPT-OSS-120B verfijnd om de mogelijkheden in biologie en cybersecurity te maximaliseren. Het doel was om te kijken of een aanvaller een gevaarlijk hulpmiddel kon creëren. De bevindingen, gepubliceerd in een gedetailleerde veiligheidspaper , zijn geruststellend De modellen.
Zelfs na deze tegenstemming bereikten de modellen niet de”hoge”capaciteitsdrempel voor het creëren van belangrijke biologische of cyberbedreigingen. Openai concludeerde dat de release de grens van het risico niet aanzienlijk bevordert in vergelijking met reeds beschikbare open modellen.
De geopolitieke hoek: concurreren in een druk veld
Deze release is onmiskenbaar een strategische reactie op een verschuivend AI-landschap . De Lama-serie van Meta heeft de Amerikaanse open-modelscene al lang gedomineerd. Meer recent hebben Chinese modellen uit Deepseek en Alibaba Gegeven significante TRACTION Globally . Release in geopolitieke termen. In zijn aankondiging verklaarde het bedrijf:”brede toegang tot deze capabele open-weights-modellen die in de VS zijn gemaakt, helpt Democratische AI-rails uit te breiden.”Dit sentiment wordt door analisten weerspiegeld. Peter Henderson van Princeton University merkte op dat”open modellen een vorm van soft power zijn”, wat een bredere strategie suggereert om de Amerikaanse invloed in de AI-ontwikkeling te behouden.
Rishi Bommasani van Stanford’s Hai heeft opgemerkt dat Openai eerder heeft aangegeven dat het als essentieel voor het Amerikaanse systeem wil worden gezien in het groeien van de Amerikaanse china-technische competitie, Volgens een rapport . Deze release stemt het bedrijf af met een nationale interesse in het bevorderen van een binnenlands open-source ecosysteem.
De vergunning van de Permissive Apache 2.0 is een belangrijk onderdeel van deze strategie. Nathan Lambert van het Allen Institute voor AI prees de keuze en verklaarde:”Het is een heel goede zaak voor de open gemeenschap.”Dit staat in contrast met de meer beperkende, aangepaste licenties die door sommige concurrenten worden gebruikt en moedigt de acceptatie aan.
De modellen zijn Beschikbaar op het hakend gezicht onmiddellijk toegankelijk voor ontwikkelaars wereldwijd .