OpenAI a considérablement mis à niveau son API de réponses introduisant des outils puissants comme la génération d’images native et l’interprète de code. La mise à jour ajoute également une prise en charge cruciale pour les serveurs de protocole de contexte de modèle distant (MCP), visant à simplifier la construction d’agents d’IA avancés. Ces améliorations sont conçues pour les développeurs et les entreprises à la recherche d’applications plus capables et orientées vers l’action.
Cette évolution s’appuie sur l’introduction initiale de mars 2025 de l’API, faisant partie d’une stratégie pour fournir une boîte à outils unifiée pour les développeurs tiers. OpenAI a ensuite déclaré que son API répond «combine la simplicité des compléments de chat avec les capacités d’utilisation d’outils de l’API Assistants». L’API Assistants est prévue pour une élimination de la mi-2026.
Depuis ses débuts, des centaines de milliers de développeurs ont utilisé l’API, traitant des milliards de jetons pour diverses applications, comme détaillé par Openai. Améliorations d’interopérabilité
Une caractéristique centrale de la mise à jour du 21 mai est la prise en charge de Remote Model Context Protocol (MCP) Servers . MCP standardise comment les applications fournissent le contexte à des modèles de grandes langues et pourraient devenir un langage universel pour l’entreprise IA.
Cela permet aux modèles d’Openai de se connecter avec des outils externes de fournisseurs comme cloudflare , HubSpot , et Stripe en utilisant un code minimal. Renforçant cette direction, Openai a rejoint le comité de direction du MCP.
Afin de soutenir au mieux l’écosystème et de contribuer à cette norme en développement, Openai a également rejoint le comité de pilotage pour MCP.
Commencez avec MCP <> API REPONSES: https://t.co/vknwtkm4ta
-Openai Developers (@Operaidevs) 21 mai 2025
Fourniture de cette interopérabilité, Zapier a annoncé que son MCP pouvait désormais être utilisé avec l’API de réponses. Reid Robinson du blog Zapier a expliqué: «Cette nouvelle connexion puissante avec l’API des réponses d’Openai permet à GPT-4.1 et à d’autres modèles pris en charge d’interagir directement avec l’écosystème de Zapier de près de 8000 intégrations d’applications», facilitant les tâches telles que l’envoi de messages Slack ou la mise à jour des enregistrements CRM.
L’API intègre maintenant “ GPT-image-1′, une variante d’Openai. Cet outil, pris en charge sur le modèle de raisonnement O3, propose des aperçus de streaming en temps réel et une modification multi-tournant. Parallèlement à cela, le L’outil d’interprète de code permet aux modèles de gérer l’analyse des données, les mathématiques complexes et les tâches logiques basées sur la logique. Capacités de recherche de fichiers ont également été mis à niveau, permettant des recherches sur plusieurs magasins vectoriels et un filtrage basé sur l’attribut.
Entreprise focus et développeur Expérience fonctionnalités ciblant les besoins des entreprises et améliorant l’expérience des développeurs. A Mode d’arrière-plan Gère les tâches asynchrones à long terme, traitant des délais de temps potentiels. Pour une transparence améliorée, Résumé des résumés Les éléments de raisonnement cryptés offrent une couche de confidentialité supplémentaire pour les clients de la rétention de zéro.
Modèles de raisonnement GPT-4.1 et O-Series. Notamment, les modèles O3 et O4-MinI peuvent désormais appeler des outils et des fonctions directement dans leur chaîne de réflexion dans l’API des réponses. Cela préserve les jetons de raisonnement à travers les demandes, l’amélioration de l’intelligence du modèle et la réduction des coûts et de la latence, selon Openai. Adoptères précoces du API API , comme zencoder , revi , et Magicschool Ai , ont déjà été des applications agentiques. Context
Malgré l’ensemble de fonctionnalités élargi, OpenAAI a confirmé les prix pour ces nouveaux outils et capacités cohérent avec les taux existants . Par exemple, l’interprète de code coûte 0,03 $ par session, tandis que la génération d’images via «GPT-IMAGE-1» commence à 0,011 $ par image. Le Azure Openai Service propose également L’API des réponses en prévisualité, comme en détail par Microsoft Learn La direction à long terme d’OpenAI pour les applications agentiques, conçue pour les entrées multimédias et destinées à remplacer l’API Beta des assistants. Ce développement en cours reflète la stratégie plus large d’OpenAI pour doter les développeurs d’outils sophistiqués d’IA, même si l’industrie navigue sur la sécurité et les considérations réglementaires pour les systèmes de plus en plus autonomes.