OpenAI a publié mardi GPT-ASS-120B et GPT-OSS-20B, ses premiers modèles ouverts depuis 2019. Cette décision marque un changement stratégique majeur pour le laboratoire d’IA, qui a été confronté à ses critiques pour ses systèmes fermés. Les nouveaux modèles sont disponibles sous une licence Apache 2.0 permissive.
Cela permet aux développeurs de télécharger librement, de les exécuter et de les modifier sur le matériel local. La version vise à contrer la popularité croissante des modèles ouverts à partir de rivaux comme Meta et des entreprises technologiques chinoises. En se réengageant avec la communauté open source, OpenAI espère établir de nouvelles normes de sécurité.
Un retour tant attendu aux racines ouvertes
La version met fin à une longue période controversée, souvent appelée «closedai», axée sur les API continues. Ce pivot stratégique marque sa première version de modèle de langue ouverte depuis GPT-2 en 2019, s’attaquant directement aux années de rétroaction et de frustration de la communauté.
Ce retour aux principes ouverts a été taquiné pour la première fois par le PDG Sam Altman en avril. L’annonce fait suite à deux retards frustrants en juin et juillet, faisant du lancement d’aujourd’hui une réalisation tant attendue de cette promesse pour les développeurs et les chercheurs qui apprécient la transparence et la personnalisation.
Le lancement clarifie également des semaines de spéculation intense alimentée par l’apparence mystérieuse de”Horizon Alpha”et de”Horizon Beta”modèles sur des plates-formes telles que OpenRouter. Ces modèles non attribués et très performants sont désormais supposés avoir été des aperçus furtifs pour la version officielle de GPT-OSS.
Nous avons publié deux modèles de raisonnement ouverts-GPT-ASS-20B et GPT-OSS-20B-sous une licence Apache 2.0.
Développement de la communauté à l’origine. href=”https://t.co/pdkhqdqcpf”target=”_blank”> https://t.co/pdkhqdqcpf
-openai (@openai) 5 août, 2025
Dans une perspective de produit, le tissu est critique. Il comble une lacune importante dans le portefeuille d’OpenAI, comme l’a noté Casey Dvorak, un gestionnaire de programme de recherche à Openai. Il a expliqué ,”Parce qu’il n’y a pas de mode [compétitif] à partir de l’Openai, Openai, nous voulions brancher cet étape et ne permet pas à la technologie de la compétition] de l’Openai, Openai, nous voulions brancher cet étap Board.”
Cela permet à l’entreprise de rivaliser pour les développeurs qui préfèrent ou ont besoin de modèles gérés localement pour la sécurité des données, des coûts inférieurs ou des réglages fins sur des tâches spécialisées. Au-delà du simple fait de combler un écart de produit, la décision consiste également à récupérer l’influence. Peter Henderson, professeur adjoint à l’Université de Princeton,
L’importance stratégique est accrue en tant que méta, le leader de longue date de l’IA de l’ouverture américaine, peut être réorientée vers les versions fermées. Le pivot d’Openai le positionne pour devenir le nouveau champion de la communauté open source, capturant les développeurs et les chercheurs à la recherche d’une alternative puissante et autorisée avec permis. La nouvelle version comprend deux modèles, GPT-ESS-16 et GPT-20B, avec 117 milliards et 21 billions, respecté. Les deux sont construits sur une architecture de mélange-de-experts (MOE), un choix de conception clé pour maximiser les performances tout en minimisant le coût de calcul, Selon l’annonce d’Openai . Le modèle GPT-ASS-120B, par exemple, active seulement 5,1b de ses paramètres 117b par jeton. Cette efficacité est encore améliorée par la quantification native du format MXFP4, réduisant considérablement l’empreinte mémoire. Cette architecture avancée rend les modèles très accessibles. Le plus petit GPT-ASS-20B peut fonctionner sur des appareils grand public avec seulement 16 Go de RAM, tandis que le modèle 120B plus grand ne nécessite qu’un seul GPU de 80 Go, un matériel commun dans des postes de travail professionnels. Les deux modèles sont disponibles en téléchargement sur Face étreint . Sur les performances, les modèles perforent bien au-dessus de leur poids. Selon la carte de modèle officielle, GPT-ASS-120B atteint une quasi-parité avec Openai Opentary O4-MinI sur des références de raisonnement de base et le surpasse même sur des tests spécialisés comme HealthBench et la compétition de mathématiques AIME. Le plus petit GPT-OSS-20B montre une compétitivité similaire par rapport au modèle O3-Mini. tandis que les principaux bancs d’Openai comparent GPT-FOS à ses propres modèles de propriété, sa recherche en matière de sécurité fournit un aspect direct rare sur la façon dont les nouveaux modèles fonctionnent avec les principaux concurrents ouverts. Les données, Forefront dans un document Accompagit Le domaine, en particulier dans les domaines spécialisés. Sur une série d’évaluations axées sur la biologie conçues pour mesurer le potentiel d’utilisation abusive, un GPT-ASS-120B affiné a été systématiquement surpassé ses rivaux. Par exemple, sur la référence «Biorisk Tacit Knowledge and Dépannage», il a marqué 75,7, avant Kimi 2 (74.6), Deepseek R1 (68.7) et QWEN3 Thinking (67.8). De même, sur un nouveau «Tripblertingbench, le test de la concurrence», les modèles GPT-RESS document de recherche. Les évaluations externes exécutées par SecureBio ont en outre confirmé que GPT-OSS fonctionne mieux que Deepseek-R1-0528 à la fois avec et sans outil de navigation. Cependant, OpenAI ajoute un contexte crucial à ces résultats. Bien que son modèle à réglage fin mène souvent le pack, le document conclut que sur la plupart des évaluations, «il existe déjà un autre modèle de modèle de poids ouvert à ou près de GPT-ASS». Cela suggère que bien que GPT-OSS avance la frontière, il ne crée pas un saut dramatique et sans précédent avec les capacités par rapport à l’écosystème open source existant. Pour les développeurs, les modèles sont conçus pour une utilisation immédiate et pratique. Ils sont entièrement compatibles avec l’API des réponses d’OpenAI, qui a été améliorée en mai avec plus de support d’outillage. Cette intégration permet des flux de travail agentiques sophistiqués avec de fortes capacités de suivi des instructions et d’utilisation des outils. Les caractéristiques clés incluent un accès complet à la chaîne de pensées du modèle (COT) pour le raisonnement transparent, la prise en charge des sorties structurées et la capacité d’ajuster l’effort de raisonnement entre les paramètres faibles, moyens et élevés via une simple invite de système. Cette flexibilité permet aux développeurs d’équilibrer les performances, le coût et la latence pour leurs applications spécifiques. Ces performances, combinées à leur accessibilité et à leur ensemble de fonctionnalités profondes, font des modèles GPT-OSS une nouvelle option puissante pour les développeurs cherchant à créer des agents complexes ou à exécuter des modèles capables sur leur propre infrastructure. La pierre angulaire de cette version est la vaste recherche sur la sécurité d’Openai. L’entreprise a étudié de manière proactive les pires scénarios grâce à un processus qu’il appelle un «réglage fin malveillant» (MFT). Les chercheurs ont intentionnellement tenté de rendre les modèles nocifs, un processus examiné par des experts externes. Ils ont affiné le GPT-OSS-20B pour maximiser ses capacités en biologie et en cybersécurité. L’objectif était de voir si un attaquant pouvait créer un outil dangereux. Les résultats, a publié dans un document de sécurité détaillé Modèles. Même après ce réglage contradictoire, les modèles n’ont pas atteint le seuil de capacité «élevé» pour créer des menaces biologiques ou cyber-menaces importantes. OpenAI a conclu que la version ne progresse pas substantiellement à la frontière du risque par rapport aux modèles ouverts déjà disponibles. Cette version est indéniablement un Réponse stratégique à un paysage AI décalant . La série Llama de Meta a longtemps dominé la scène américaine du modèle ouvert. Plus récemment, les modèles chinois de Deepseek et d’alibaba ont gagné un traction significatif à l’échelle mondiale. OpenAI a explicitement encadré la version en termes géopolitiques. Dans son annonce, la société a déclaré que «un large accès à ces modèles de poids ouverts capables créés aux États-Unis aide à étendre les rails démocratiques de l’IA». Ce sentiment est repris par les analystes. Peter Henderson de l’Université de Princeton a noté que «les modèles ouverts sont une forme de soft power», suggérant une stratégie plus large pour maintenir l’influence américaine dans le développement de l’IA. Rishi Bommasani de Stanford’s Hai a noté qu’Openai a précédemment signalé qu’il voulait être considéré comme vital pour le système américain au milieu de la compétition technologique américaine croissante, selon un rapport . Cette version aligne l’entreprise sur un intérêt national à favoriser un écosystème open-source national. La licence APACHE 2.0 permissive est un élément clé de cette stratégie. Nathan Lambert de l’Allen Institute pour l’IA a salué le choix, déclarant: «C’est une très bonne chose pour la communauté ouverte». Cela contraste avec les licences plus restrictives et personnalisées utilisées par certains concurrents et encourage une adoption plus large. Les modèles sont disponibles sur des étreintes et soutenus par un large écosystème de partenaires, y compris des Aws, des microsoft, et des nuages, ils sont des écosystèmes généraux, des partenaires, y compris des AWS, des microsoft, et des nuages, ils sont des écosystèmes généraux, des partenaires, dont des AWS, des microsoft, et des nuages, ils sont des écosystèmes généraux, des partenaires, dont des AWS, des microsoft, et des nuages, ils sont des écosystèmes généraux, des partenaires, des Aws, des Micosof immédiatement accessible aux développeurs du monde entier . Sous le capot: performance et accessibilité
comment GPT-OSS se compare aux concurrents
L’angle géopolitique: rivaliser dans un champ bondé