Openai lanzó el martes GPT-ASS-120B y GPT-OSS-20B, sus primeros modelos de peso abierto desde 2019. Este movimiento marca un cambio estratégico importante para el laboratorio de IA, que ha enfrentado críticas por sus sistemas cerrados. Los nuevos modelos están disponibles bajo una licencia permisiva de Apache 2.0.
Esto permite a los desarrolladores descargarlos, ejecutarlos y modificarlos libremente en hardware local. El lanzamiento tiene como objetivo contrarrestar la creciente popularidad de los modelos abiertos de rivales como meta y firmas de tecnología china. Al volver a comprometerse con la comunidad de código abierto, OpenAI espera establecer nuevos estándares de seguridad.
Un retorno tan esperado a las raíces de peso abierto
El lanzamiento finaliza un período largo y polémico donde la compañía, a menudo llamada”Closewai”, enfocada exclusivamente en el patriota de los apacrientes. Este pivote estratégico marca su primer lanzamiento del modelo de idioma de peso abierto desde GPT-2 en 2019, abordando directamente años de retroalimentación y frustración de la comunidad.
>
Este regreso a los principios de peso abierto fue burlado por primera vez por el CEO Sam Altman en abril. El anuncio sigue a dos retrasos frustrantes en junio y julio, lo que hace que el lanzamiento de hoy sea un cumplimiento tan esperado de esa promesa para desarrolladores e investigadores que valoran la transparencia y la personalización.
El lanzamiento también aclara semanas de especulación intensa alimentada por la misteriosa aparición de”Horizon Alpha”y”Horizon Beta”modelos en plataformas como OpenRouter. Ahora se entiende que esos modelos no atribuidos y de alto rendimiento han sido vistas previas sigilosas para el lanzamiento oficial de GPT-ASS.
Lanzamos dos modelos de razonamiento de peso abierto: GPT-ASS-120B y GPT-ASS-20B: bajo una licencia Apache 2.0.
desarrollados con la comunidad abierta, estos modelos, estos modelos de avance significativo. href=”https://t.co/pdkhqdqcpf”target=”_blank”> https://t.co/pdkhqdqcpf
-Openai (@openai) 5 de agosto de 2025
Desde una perspectiva de producto, el tiempo es crítico. Aborda una brecha significativa en la cartera de Operai, como señaló Casey Dvorak, gerente de programas de investigación en OpenAI. Él explicado ,”Porque no hay un modelo [competitivo] de Openi de Openi, queremos completar ese lugar y en realidad permite que usen nuestro tecnología para que use nuestro tecnología para usar el que use nuestra tecnología a través de nuestra tecnología. Junta”.
Esto permite a la compañía competir por los desarrolladores que prefieren o requieren modelos locales para la seguridad de los datos, los costos más bajos o el ajuste de tareas especializadas. Más allá de simplemente llenar un vacío de productos, el movimiento también se trata de recuperar la influencia. Peter Henderson, profesor asistente en la Universidad de Princeton, sugiere ,”En la parte, esto es sobre la parte de la parte de la pareja, esto es lo que se está dirigiendo a la investigación de los que se dirige a los dominanzas. Ecosistema”.
La importancia estratégica se aumenta a medida que Meta, el líder de la IA de código abierto estadounidense, puede reorientarse hacia las liberaciones cerradas. OpenAI’s pivot positions it to become the new champion for the open-source community, capturing developers and researchers looking for a powerful, permissively licensed alternative.
Under the Hood: Performance and Accessibility
The new release includes two models, gpt-oss-120b and gpt-oss-20b, with 117 billion and 21 billion total parameters, respectively. Ambos se basan en una arquitectura de mezcla de expertos (MOE), una opción de diseño clave para maximizar el rendimiento al minimizar el costo computacional, según el anuncio de OpenAi .
Este diseño de MOE significa solo una fracción de la fracción de los modelos en blanco. El modelo GPT-OSS-120B, por ejemplo, activa solo 5.1B de sus parámetros de 117b por token. Esta eficiencia se mejora aún más por la cuantización nativa al formato MXFP4, reduciendo drásticamente la huella de la memoria.
Esta arquitectura avanzada hace que los modelos sean altamente accesibles. El GPT-OSS-20B más pequeño puede ejecutarse en dispositivos de consumo con solo 16 GB de RAM, mientras que el modelo de 120b más grande requiere solo un GPU de 80 GB, una pieza común de hardware en estaciones de trabajo profesionales. Ambos modelos están disponibles para descargar en abrazando la cara .
en el rendimiento, los modelos perforan bien su peso. Según la tarjeta modelo oficial, GPT-OSS-20B logra casi paridad con el O4-Mini patentado de OpenAi en los puntos de referencia de razonamiento central e incluso lo supera en pruebas especializadas como HealthBench y la competencia de matemáticas de Aime. El GPT-OSS-20B más pequeño muestra una competitividad similar contra el modelo O3-Mini.
cómo GPT-OSS se compara con los competidores
Mientras que los puntos de referencia principales de OpenAI comparan GPT-ASS con sus propios modelos propietarios, su investigación de seguridad proporciona un aspecto raro y directo de cómo los nuevos modelos que realizan los nuevos modelos principales de la competencia de Weight. Los datos, publicado en un documento de acompañante , posicions gttont-campo, particularmente en dominios especializados.
En una serie de evaluaciones centradas en biología diseñadas para medir el potencial para el uso indebido, un GPT-ASS-20B sintonizado superó constantemente a sus rivales. Por ejemplo, en el punto de referencia”Biorisk tácito tácito y la resolución de problemas”, obtuvo 75.7, por delante de Kimi 2 (74.6), Deepseek R1 (68.7) y Qwen3 Pensamiento (67.8).
De manera similar, en una prueba de”solución de solución de solución”a los que se encontraron”de acuerdo a los modelos GPT-ASS que se encontraron”de acuerdo con el estado de la competencia”. Documento de investigación. Las evaluaciones externas ejecutadas por SecureBio confirmaron además que GPT-OSS funciona mejor que Deepseek-R1-0528 con y sin una herramienta de navegación.
Sin embargo, OpenAi agrega un contexto crucial a estos resultados. Si bien su modelo ajustado a menudo lidera el paquete, el documento concluye que en la mayoría de las evaluaciones,”ya existe otro modelo de peso abierto en o cerca de GPT-oss”. Esto sugiere que, si bien GPT-OSS avanza a la frontera, no crea un salto dramático y sin precedentes en capacidad sobre el ecosistema de código abierto existente.
Para los desarrolladores, los modelos están diseñados para un uso práctico inmediato. Son totalmente compatibles con la API de respuestas de OpenAI, que mejoró en mayo con más soporte de herramientas (previamente en WinBuzzer). Esta integración permite flujos de trabajo de agente sofisticados con fuertes capacidades de seguimiento de instrucciones y uso de herramientas.
Las características clave incluyen acceso completo a la cadena de pensamiento del modelo (COT) para un razonamiento transparente, soporte para salidas estructuradas y la capacidad de ajustar el esfuerzo de razonamiento entre configuraciones bajas, medianas y altas a través de un mensaje de sistema simple. Esta flexibilidad permite a los desarrolladores equilibrar el rendimiento, el costo y la latencia para sus aplicaciones específicas.
Este rendimiento, combinado con su accesibilidad y conjunto de características profundas, hace que los modelos GPT-ASS sean una nueva opción poderosa para los desarrolladores que buscan construir agentes complejos o modelos capaces de ejecución en su propia infraestructura. Cornerstone de este lanzamiento es la extensa investigación de seguridad de OpenAI. La compañía estudió proactivamente los peores escenarios a través de un proceso que llama”ajuste malicioso”(MFT). Los investigadores intentaron intencionalmente hacer que los modelos no fueran dañinos, un proceso revisado por expertos externos.
Autorizaron GPT-OSS-20B para maximizar sus capacidades en biología y ciberseguridad. El objetivo era ver si un atacante podía crear una herramienta peligrosa. Los resultados, publicado en un artículo de seguridad detallado , fueron la decisión de la decisión y la decisión de la decisión de la decisión de la decisión de la seguridad. Modelos.
Incluso después de esta afinación adversaria, los modelos no alcanzaron el umbral de capacidad”alta”para crear significativas amenazas biológicas o cibernéticas. Operai concluyó que el lanzamiento no avanza sustancialmente la frontera del riesgo en comparación con los modelos abiertos ya disponibles.
El ángulo geopolítico: competir en un campo lleno de gente
Esta versión es indeniosamente a respuesta estratégica a un paisaje AI cambiante . La serie Llama de Meta ha dominado durante mucho tiempo la escena del modelo abierto de los Estados Unidos. Más recientemente, los modelos chinos de Deepseek y Alibaba tienen ganado significativo de TRACTION .
explanguage-model El lanzamiento en términos geopolíticos. En su anuncio, la compañía declaró que”un amplio acceso a estos modelos capaces de peso abierto creados en los Estados Unidos ayuda a expandir los rieles demócratas de IA”. Este sentimiento se hace eco de analistas. Peter Henderson of Princeton University noted that “open models are a form of soft power,”suggesting a broader strategy to maintain US influence in AI development.
Rishi Bommasani of Stanford’s HAI noted that OpenAI has previously signaled it wants to be seen as vital to the US system amid growing US-China tech competition, según un informe . Este lanzamiento alinea a la compañía con un interés nacional en fomentar un ecosistema de código abierto nacional.
La licencia Permisiva Apache 2.0 es una parte clave de esta estrategia. Nathan Lambert, del Allen Institute for AI, elogió la elección, declarando:”Es algo muy bueno para la comunidad abierta”. This contrasts with the more restrictive, custom licenses used by some competitors and encourages wider adoption.
The models are available on Hugging Face and supported by a broad ecosystem of partners, including AWS, Microsoft, and Cloudflare, ensuring they are inmediatamente accesible para los desarrolladores de todo el mundo .