OpenAI a officiellement lancé sa famille de modèles GPT-4.1, introduisant trois nouvelles versions-GPT-4.1, GPT-4.1 Mini et GPT-4.1 Nano-qui visent à équilibrer les performances de haut niveau avec un coût et une vitesse flexibles. Construite pour surpasser ses prédécesseurs, la série GPT-4.1 améliore les capacités de base telles que la génération de code, le suivi des instructions et le raisonnement à long contexte tout en offrant une latence plus faible et une utilisation plus cohérente des outils.

Contrairement à GPT-4 et GPT-4O, qui alimentent les utilisateurs professionnels, les nouveaux modèles sont disponibles exclusivement via l’API OpenAI-recueillant la concentration continue de l’entreprise sur l’entreprise et les intégrations des développeurs plutôt que sur la mise à niveau des consommateurs. En segmentant les nouveaux modèles en trois niveaux de performance distincts, OpenAI donne aux utilisateurs d’API la possibilité d’échec en fonction de la taille et du budget de la charge de travail. En haut, le modèle GPT-4.1 standard est conçu pour les applications les plus complexes et est évalué en conséquence: 2 $ par million de jetons d’entrée et 8 $ par million de jetons de sortie.

GPT-4.1 Mini est une option intermédiaire, offrant une parité proche dans les références de renseignement avec une latence beaucoup plus faible, soit 0,40 $ par million de jetons d’entrée et 1,60 $ par million de résultats. Pour les tâches légères et les cas d’utilisation en temps réel, GPT-4.1 Nano est le plus rentable à ce jour, coûtant seulement 0,10 $ par million de jetons d’entrée et 0,40 $ par million de jetons de sortie.

Chaque modèle est livré avec des compromis de performances, mais Openai affirme que même le modèle le plus petit, Nano, Oppens Offings comme GPT-4o Mini Mini dans le bancnlak multiple. Ces ajouts reflètent l’accent croissant d’OpenAI sur la rendez-vous accessible à l’IA générative dans une gamme plus large de cas d’utilisation, des flux de travail agentiques haute performance aux outils intégrés dans les applications de consommation.

notamment, les trois modèles partagent le même coup de connaissances (juin 2024) et ont été réglés pour fournir des sorties plus déterministes et suivant le format que les générations précédentes-ce qui réduit les hallucinations et améliore la fiabilité de l’intégration dans les environnements de production. uniquement à la recherche et au prototypage, mais au déploiement à grande échelle dans les logiciels commerciaux, les plates-formes SaaS et les systèmes d’agents autonomes. Avec GPT-4.1 désormais positionné comme le successeur de l’aperçu GPT-4.5 qui sera bientôt déprécié (se terminant le 14 juillet 2025), Openai montre clairement que cette génération devrait porter le poids opérationnel de bon nombre de ses partenaires commerciaux à l’avenir. avancées notables sur leurs prédécesseurs. Le modèle GPT-4.1 standard a obtenu un score de 54,6% sur le Swe-Bench Benchmark , marquant une amélioration absolue de 21,4% sur GPT-4O et 26,6% d’amélioration absolue par rapport à GPT-4.5.

Dans l’instruction suivante, GPT-4.1 a marqué 38,3% sur Benchmark de l’échelle Multichallenge , reflétant une augmentation absolue de 10,5% au-dessus de GPT-4O.

En outre, GPT-4.1 a établi un nouveau résultat de l’état-de-art sur le Video-Mme Benchmark Pour la catégorie multimodale à long-contextes, a marquant 72,0% sur le”Long, pas de sous-titles”catégory, A. GPT-4O.

OpenAI a également introduit deux versions rationalisées: GPT-4.1 Mini et GPT-4.1 Nano. GPT-4.1 Mini offre une latence et un coût réduits, atteignant près de la moitié de la latence et une réduction des coûts de 83% par rapport à GPT-4O, tout en correspondant ou dépassant les performances de GPT-4O dans les évaluations de l’intelligence.

GPT-4.1 Nano, le modèle le plus petit et le plus rapide d’Openai à ce jour, est optimisé pour les tâches nécessitant une faible latence et une économie. Il prend en charge une fenêtre de contexte de jusqu’à 1 million de jetons et scores de 80,1% sur MMLU, 50,3% sur GPQA et 9,8% sur les performances de Codage Aider Polyglot, ces modèles sont disponibles exclusivement dans le cadre de l’api de l’Openai, les développeurs de développeurs pour la recherche de capabbilier AI sur les développeurs. Le prix des modèles est le suivant: GPT-4.1 à 2 $ par million de jetons d’entrée et 8 $ par million de jetons de sortie; GPT-4.1 Mini à 0,40 $ par million de jetons d’entrée et 1,60 $ par million de jetons de sortie; et GPT-4.1 Nano à 0,10 $ par million de jetons d’entrée et 0,40 $ par million de jetons de sortie. 

Instruction améliorée suivante et compréhension à long contexte

OpenAI s’est concentré sur l’amélioration de la capacité des modèles à suivre les instructions et à comprendre les entrées à long contexte. Les modèles GPT-4.1 sont conçus pour mieux utiliser des fenêtres de contexte étendues, en prenant jusqu’à 1 million de jetons et présentent une meilleure compréhension du contexte à long terme. Ces améliorations rendent les modèles plus efficaces pour alimenter les agents d’IA capables d’accomplir indépendamment des tâches au nom des utilisateurs, telles que l’ingénierie logicielle, l’analyse des documents et le support client.

Selon OpenAI, «ces améliorations de l’enseignement après la fiabilité et la compréhension du contexte long réalisent également les modèles GPT-4.1 considérablement plus efficaces pour les agents d’alimentation ou les systèmes qui peuvent réaliser indépendamment des TAUSS de l’intermédiaire.

Limitations et considérations du modèle

Bien que les modèles GPT-4.1 offrent des progrès significatifs, OpenAI reconnaît certaines limitations. Les modèles peuvent être plus littéraux que les versions précédentes, nécessitant parfois des invites plus spécifiques et explicites des utilisateurs. De plus, la précision des modèles diminue à mesure que le nombre de jetons d’entrée augmente; Dans les propres tests d’OpenAI, la précision est passée d’environ 84% avec 8 000 jetons à 50% avec 1 024 jetons.

OpenAI note également que GPT-4.1 devient moins fiable, plus les jetons d’entrée doivent traiter, soulignant l’importance de l’ingénierie rapide et de la gestion de contexte dans le développement d’applications. Dans son poste officiel, la société déclare: «Les premiers testeurs ont noté que le GPT-4.1 peut être plus littéral, nous recommandons donc d’être explicites et spécifiques dans les invites.”

De plus, le modèle d’aperçu GPT-4.5 sera déprécié le 14 juillet 2025, pour faire place à une adoption plus large de GPT-4.1. Les nouveaux modèles ont une coupure de connaissances de juin 2024, donnant aux développeurs l’accès à des données plus actuelles par rapport aux versions antérieures.

Categories: IT Info