O Openai lançou na terça-feira o GPT-OSS-120B e o GPT-OSS-20B, seus primeiros modelos de peso aberto desde 2019. Esse movimento marca uma grande mudança estratégica para o laboratório de IA, que enfrentou críticas por seus sistemas fechados. Os novos modelos estão disponíveis sob uma licença permissiva do Apache 2.0.
Isso permite que os desenvolvedores baixem, executem e os modifiquem livremente no hardware local. O lançamento tem como objetivo combater a crescente popularidade de modelos abertos de rivais como meta e firmas de tecnologia chinesa. Ao se envolver novamente com a comunidade de código aberto, o OpenAI espera definir novos padrões de segurança. Este pivô estratégico marca seu primeiro lançamento do modelo de linguagem de peso aberto desde o GPT-2 em 2019, abordando diretamente anos de feedback e frustração da comunidade.
Este retorno aos princípios de peso aberto foi provocado pelo CEO Sam Altman em abril. O anúncio segue dois atrasos frustrantes em junho e julho, fazendo o lançamento de hoje um atendimento tão esperado dessa promessa para desenvolvedores e pesquisadores que valorizam a transparência e a personalização. Os modelos não atribuídos e de alto desempenho agora são visualizações furtivas para a liberação oficial do GPT-Oss. href=”https://t.co/pdkhqdqcpf”Target=”_blank”> https://t.co/pdkhqdqcpf
-Openai (@Openai) 5 de agosto, 2025 Ele aborda uma lacuna significativa no portfólio da Openai, conforme observado por Casey Dvorak, gerente de programa de pesquisa da OpenAi. Ele Explicado que não há e não há um modelo de abeto. Board.”
Isso permite que a empresa compete por desenvolvedores que preferem ou exigem modelos de segurança localmente para segurança de dados, custos mais baixos ou ajustes finos em tarefas especializadas. Além de apenas preencher uma lacuna de produto, a mudança também é sobre a influência de recuperação. Peter Henderson, professor assistente da Universidade de Princeton, sugestões ecossistema.”
A importância estratégica é aumentada como meta, o líder de longa data da IA de código aberto americano, pode estar se reorientando em direção a lançamentos fechados. O pivô do Openai posiciona para se tornar o novo campeão da comunidade de código aberto, capturando desenvolvedores e pesquisadores que procuram uma alternativa poderosa e permissivamente licenciada. Ambos são construídos em uma arquitetura de mistura de especialistas (MOE), uma opção de design-chave para maximizar o desempenho e minimizar o custo computacional, De acordo com o anúncio do OpenAi, apenas o anúncio . O modelo GPT-OSS-120B, por exemplo, ativa apenas 5,1b de seus parâmetros de 117b por token. Essa eficiência é ainda mais aprimorada pela quantização nativa no formato MXFP4, reduzindo drasticamente a pegada da memória.
Essa arquitetura avançada torna os modelos altamente acessíveis. O GPT-20B menor pode ser executado em dispositivos de consumo com apenas 16 GB de RAM, enquanto o modelo maior de 120b requer apenas uma única GPU de 80 GB, uma peça de hardware comum nas estações de trabalho profissionais. Ambos os modelos estão disponíveis para download em Abraçando o rosto .
no desempenho, os modelos acabam bem acima do peso. De acordo com o cartão de modelo oficial, o GPT-OSS-120B atinge quase paridade com o O4-mini do Openai em benchmarks principais de raciocínio e até supera-o em testes especializados como Healthbench e AME Math Competition. O GPT-20B menor mostra competitividade semelhante contra o modelo O3-mini. Os dados, do campo, particularmente em domínios especializados. Por exemplo, no referência “Conhecimento tácito de biorisco e solução de problemas”, marcou 75,7, à frente de Kimi 2 (74.6), Deepseek R1 (68.7) e QWEN3 pensamento (67.8). Trabalho de pesquisa. As avaliações externas executadas pelo SecureBio confirmaram ainda que o GPT-ROSS tem um desempenho melhor do que o DeepSeek-R1-0528 com e sem uma ferramenta de navegação.
No entanto, o OpenAI adiciona um contexto crucial a esses resultados. Enquanto seu modelo de ajuste fino geralmente lidera o pacote, o artigo conclui que, na maioria das avaliações,”já existe outra pontuação do modelo de peso aberto no GPT-Oss”ou próximo ao GPT”. Isso sugere que, embora o GPT-OSS avise a fronteira, ele não cria um salto dramático e sem precedentes em capacidade sobre o ecossistema de código aberto existente.
Para desenvolvedores, os modelos são projetados para uso prático e imediato. Eles são totalmente compatíveis com a API de respostas do OpenAI, que foi aprimorada em maio com mais suporte para ferramentas. Essa integração permite fluxos de trabalho agênticos sofisticados com fortes recursos de acompanhamento de instruções e uso de ferramentas.
Os principais recursos das chaves incluem acesso total à cadeia de pensamento do modelo (COT) para raciocínio transparente, suporte para saídas estruturadas e a capacidade de ajustar o esforço de raciocínio entre configurações baixas, médias e altas por meio de um prompt de sistema simples. Essa flexibilidade permite que os desenvolvedores equilibrem desempenho, custo e latência para suas aplicações específicas. Cornerstone deste lançamento é a extensa pesquisa de segurança da OpenAI. A empresa estudou proativamente os piores cenários por meio de um processo que chama de”ajuste fino malicioso”(MFT). Os pesquisadores intencionalmente tentaram tornar os modelos prejudiciais, um processo revisado por especialistas externos. O objetivo era ver se um invasor poderia criar uma ferramenta perigosa. As descobertas, Resposta estratégica a uma paisagem de IA em mudança . A série Llama da Meta há muito tempo domina a cena do modelo aberto dos EUA. Mais recentemente, modelos chineses da Deepseek e Alibaba ganharam tração significativa globalmente. Em seu anúncio, a empresa afirmou:”O amplo acesso a esses modelos de pesos abertos capazes criados nos EUA ajuda a expandir os trilhos democratas da IA”. Esse sentimento é ecoado por analistas. Peter Henderson, da Universidade de Princeton, observou que”os modelos abertos são uma forma de poder suave”, sugerindo uma estratégia mais ampla para manter a influência dos EUA no desenvolvimento da IA. href=”https://www.technologyreview.com/2025/08/05/1121092/openai-has-finally-releaske-pen-weight-language-models/”Target=”_ Blank”> de acordo com um relatório . Este lançamento alinha a empresa com um interesse nacional em promover um ecossistema doméstico de código aberto.
A licença permissiva do Apache 2.0 é uma parte essencial dessa estratégia. Nathan Lambert, do Instituto Allen para AI, elogiou a escolha, afirmando:”É uma coisa muito boa para a comunidade aberta”. Isso contrasta com as licenças personalizadas mais restritivas usadas por alguns concorrentes e incentiva a adoção mais ampla. imediatamente acessível aos desenvolvedores em todo o mundo .