Openai ha lanzado oficialmente su familia Modelo GPT-4.1, introduciendo tres nuevas versiones: GPT-4.1, GPT-4.1 Mini y GPT-4.1 Nano, que tienen como objetivo equilibrar el rendimiento de primer nivel con costos y velocidad flexibles. Construido para superar a sus predecesores, la serie GPT-4.1 mejora las capacidades centrales, como la generación de códigos, la instrucción siguiente y el razonamiento de contexto a largo plazo, al tiempo que ofrece una latencia más baja y un uso de herramientas más consistente.

A diferencia de GPT-4 y GPT-4O, que Power CHATGPT para usuarios profesionales, los nuevos modelos están disponibles exclusivamente a través de la API de OpenAI: un enfoque continuo de la Compañía en las integraciones empresariales y de desarrolladores en lugar de el uso de chatbot de los consumidores. Al segmentar los nuevos modelos en tres niveles de rendimiento distintos, OpenAI ofrece a los usuarios de API la capacidad de escalar en función del tamaño y el presupuesto de la carga de trabajo. En la parte superior, el modelo estándar GPT-4.1 está diseñado para las aplicaciones más complejas y tiene un precio de consecuencia: $ 2 por millón de tokens de entrada y $ 8 por millón de tokens de salida.

>

GPT-4.1 Mini es una opción de fondo medio, que ofrece una paridad cercana en puntos de referencia de inteligencia con una latencia mucho menor, con un precio de $ 0.40 por millón de tokens de entrada y $ 1.60 por millón de salida. Para tareas livianas y casos de uso en tiempo real, GPT-4.1 Nano es el más rentable hasta el momento, que cuesta solo $ 0.10 por millón de tokens de entrada y $ 0.40 por millón de tokens de salida.

Cada modelo viene con compensaciones de rendimiento, pero OpenAI afirma que el modelo más pequeño, Nano, supera las ofertas anteriores como GPT-4O MINI en múltiples benchmarks. Estas adiciones reflejan el creciente énfasis de OpenAI en hacer que la IA generativa sea accesible en una gama más amplia de casos de uso, desde flujos de trabajo de agente de alto rendimiento hasta herramientas integradas en aplicaciones de consumo.

En particular, los tres modelos comparten el mismo límite de conocimiento (junio de 2024) y se han sintonizado para ofrecer resultados más deterministas y seguidos de formato que las generaciones anteriores. Solo para la investigación y la creación de prototipos, pero para la implementación de alta escala en software comercial, plataformas SaaS y sistemas de agentes autónomos. Con GPT-4.1 ahora posicionado como el sucesor de la vista previa GPT-4.5 que pronto se declarará, se espera que esta generación tenga el peso operativo de muchos de sus socios comerciales en el futuro.

[Contenido incorporado]

Benchmars Benchmars y modelas variantes

los modelos de información de la notificación de Gpt. avances sobre sus predecesores. El modelo GPT-4.1 estándar logró una puntuación de 54.6% en swe-bench verificada de referencia verificada , marcando una mejora absoluta del 21.4% sobre GPT-4O y un 26.6% de mejora absoluta por encima de GPT-5.5.

En las instrucciones siguientes, GPT-4.1 obtuvo un 38.3% en Benchlick múltiple de escala , reflejando un aumento absoluto de 10.5% sobre GPT-4O.

>

Además, GPT-4.1 establece un nuevo resultado de estado de estado en el videos-mme benchmark para la comprensión multimodal de contenido largo, puntuando 72.0% en el”largo, sin subtítulos”, una categoría de 6.7% de mejora de 6. GPT-4O.

OpenAi también ha introducido dos versiones simplificadas: GPT-4.1 Mini y GPT-4.1 Nano. GPT-4.1 Mini ofrece una latencia y costo reducidos, logrando casi la mitad de la latencia y una reducción de costos del 83% en comparación con GPT-4O, al tiempo que coincide o excede el rendimiento de GPT-4O en las evaluaciones de inteligencia.

GPT-4.1 Nano, el modelo más pequeño y más rápido de OpenAI hasta la fecha, está optimizado para tareas que requieren baja latencia y rentabilidad. Admite una ventana de contexto de hasta 1 millón de tokens y anota un 80.1% en MMLU, 50.3% en GPQA y 9.8% en los puntos de referencia de codificación de políglot de auxilio, superando los puntos de referencia de GPT-4O Mini.

Estos modelos están disponibles exclusivamente a través de la API de API abierta, los desarrolladores de los desarrolladores integrados en la integración de AI que se integran en las capacidades de AI avanzadas en sus aplicaciones. El precio de los modelos es el siguiente: GPT-4.1 a $ 2 por millón de tokens de entrada y $ 8 por millón de tokens de salida; GPT-4.1 mini a $ 0.40 por millón de tokens de entrada y $ 1.60 por millón de tokens de salida; y GPT-4.1 nano a $ 0.10 por millón de tokens de entrada y $ 0.40 por millón de tokens de salida. 

>

Instrucción mejorada siguiendo y comprensión de contexto largo

OpenAI se ha centrado en mejorar la capacidad de los modelos para seguir las instrucciones y comprender las entradas de contexto largo. Los modelos GPT-4.1 están diseñados para utilizar mejor ventanas de contexto extensas, que respalda hasta 1 millón de tokens y exhiben una comprensión mejorada de contexto largo. Estas mejoras hacen que los modelos sean más efectivos para impulsar a los agentes de IA capaces de lograr de forma independiente las tareas en nombre de los usuarios, como la ingeniería de software, el análisis de documentos y la atención al cliente.

Según OpenAI, “estas mejoras en la instrucción siguiendo la confiabilidad y la larga comprensión del contexto también hacen que los modelos GPT-4.1 sean considerablemente más efectivos en los agentes de alimentación o los sistemas que pueden lograr de forma independiente en las tareas de Behalf de Behalf de los usuarios de Behalf de los usuarios. width=”1005″altura=”605″src=”datos: imagen/svg+xml; nitro-tempy-id=mtc1ntoxmdq3-1; base64, phn2zyb2awv3qm94psiwidagmtawnsa2md Uiihdpzhropsixmda1iibozwlnahq9ijywnsigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>>

Limitaciones y consideraciones del modelo

Si bien los modelos GPT-4.1 ofrecen avances significativos, OpenAI reconoce ciertas limitaciones. Los modelos pueden ser más literales que las versiones anteriores, a veces que requieren indicaciones más específicas y explícitas de los usuarios. Además, la precisión de los modelos disminuye a medida que aumenta el número de tokens de entrada; En las propias pruebas de OpenAI, la precisión disminuyó de alrededor del 84% con 8,000 tokens al 50% con 1,024 tokens.

OpenAi también señala que GPT-4.1 se vuelve menos confiable, más tokens de entrada tiene que procesar, destacando la importancia de la ingeniería rápida y la gestión del contexto en el desarrollo de aplicaciones. En su publicación oficial, la compañía afirma:”Los primeros evaluadores notaron que GPT-4.1 puede ser más literal, por lo que recomendamos ser explícitos y específicos en las indicaciones”.

Además, el modelo de vista previa GPT-4.5 estará en desuso el 14 de julio de 2025, lo que hace que la adopción más amplia de GPT-4.1. Los modelos más nuevos tienen un límite de conocimiento de junio de 2024, lo que brinda a los desarrolladores acceso a datos más actuales en comparación con versiones anteriores.

Categories: IT Info