OpenAI hat seine Antworten-API erheblich verbessert, um leistungsstarke Tools wie native Bildgenerierung und Code-Interpreter einzuführen. Das Update fügt außerdem eine entscheidende Unterstützung für Server (Remote Model Context Protocol) (MCP) hinzu, um die Erstellung fortschrittlicher AI-Agenten zu vereinfachen. Diese Verbesserungen sind für Entwickler und Unternehmen konzipiert, die fähigere, actionorientierte Anwendungen suchen. OpenAI erklärte dann, dann seine Antworten API”kombiniert die Einfachheit der Chat-Abschlüsse mit den Werkzeugnutzungsfunktionen der Assistenten-API”. Die Assistenten-API ist für eine Ausstiegsmitte der Mitte 2026 geplant.
Seit seinem Debüt haben Hunderttausende von Entwicklern die API verwendet und Billionen von Token für verschiedene Anwendungen verarbeitet. Interoperabilitätsverbesserungen
Eine zentrale Funktion des Updates vom 21. Mai ist Unterstützung für Remote-Modellkontext-Protokoll (MCP) Servers . MCP standardisiert, wie Anwendungen einen Kontext für Großsprachenmodelle bieten und könnte zu einer universellen Sprache für die Unternehmens-KI werden.
Ermöglicht dies mit den Modellen von OpenAI, sich mit externen Tools von Anbietern wie Cloudflare zu verknüpfen zu erhalten. target=”_ leer”> hubspot und Stripe Verwenden Sie minimaler Code. OpenAi hat sich dem MCP-Lenkungskomitee angeschlossen. target=”_blank”> https://t.co/vknwtkm4ta
-OpenAI-Entwickler (@OPenaidevs) 21. Mai 2025
Förderung dieser Interoperabilität kündigte Zapier an, dass sein MCP jetzt mit der Antworten-API verwendet werden kann. Reid Robinson aus dem Zapier-Blog erklärte:”Diese neue leistungsstarke Verbindung mit OpenAIs Antworten API ermöglicht es GPT-4.1 und anderen unterstützten Modellen, mit Zapiers Ökosystem von fast 8.000 App-Integrationen direkt zu interagieren.”Modell. Dieses Tool, das auf dem O3-Argumentationsmodell unterstützt wird, bietet Echtzeit-Streaming-Vorschau und Multi-Turn-Bearbeitung. Darüber hinaus ermöglicht das Code-Interpreter-Tool Modelle können Datenanalysen, komplexe Mathematik und logikbasierte Aufgaben verarbeiten. Dateisuchfunktionen wurden ebenfalls aktualisiert, wobei auch Suchvorgänge in mehreren Vektor-Stores und die Attribut-basierte Filterung aktiviert wurden. Features, die sich an die Bedürfnisse der Unternehmensanforderungen richten und die Entwicklererfahrung verbessern. A Hintergrundmodus erledigt langfristige asynchrone Aufgaben und adressiert potenzielle Zeitüberschreitungen. Für eine verbesserte Transparenz verschlüsseltes Argumentieren. und Argumentationsmodelle der Serie. Bemerkenswerterweise können die O3-und O4-Mini-Modelle jetzt Tools und Funktionen direkt innerhalb ihrer Kette der Antworten in der API der Antworten aufrufen. Dies bewahrt laut OpenAI die Argumentationspflichtigen für Anfragen über die Anfragen hinweg, verbessert die Modellinformationen und die Reduzierung von Kosten und Latenz. Frühe Anwender der api wie revi und magicSchool ai , haben bereits variierte Agenten gebaut. Kontext
Trotz des erweiterten Feature-Sets bestätigte OpenAI die Preisgestaltung für diese neuen Tools und Funktionen. Zum Beispiel kostet Code-Interpreter 0,03 USD pro Sitzung, während die Bilderzeugung über `gpt-Image-1` bei 0,011 USD pro Bild startet. Das Azure OpenAI-Dienst bietet auch Die Antworten-API-API in Preview. Die langfristige Richtung von OpenAI für agentenanwendungen, die für Multimedia-Eingaben ausgelegt sind und die Assistenten-API-Beta ersetzen sollen. Diese fortlaufende Entwicklung spiegelt die breitere Strategie von OpenAs wider, Entwickler mit ausgeklügelten KI-Tools auszustatten, selbst wenn die Branche Sicherheits-und regulatorische Überlegungen für zunehmend autonome Systeme navigiert.