OpenAI hat ein großes Update für den KI-Codierungsagenten Codex veröffentlicht und es in ein tief integriertes Entwickler-Tool verwandelt, das nahtlos in lokalen und Cloud-Umgebungen arbeitet. Das Update führt eine neue Erweiterung ein, die Codex direkt in beliebte IDEs wie VS Code und Cursor einbringt. Diese Änderungen erzeugen eine einheitliche Erfahrung, mit der Codex als einzelne, anhaltende Assistent über die IDE-, Terminal-und Github-Repositories eines Entwicklers agieren kann. src=”https://winbuzzer.com/wp-content/uploads/2025/08/openai-codex-vs-code.jpg”>

Starten Sie neue Aufgaben, delegieren Sie die In-Progress-Arbeiten, ohne Ihre Editors zu verlassen. pic.twitter.com/ioqgbp1x8g

-OpenAI-Entwickler (@Openenaidevs) 27. August, 2025

Die neuen Features sind die neuen Features. href=”https://help.openai.com/en/articles/6825453-chatgpt-release-notes”target=”_ leer”> verfügbar für alle zahlenden Chatgpt-Abonnenten , einschließlich derjenigen, die plus, Pro, Team, EDU und Unternehmenspläne sind. Dieser Schritt signalisiert eine signifikante strategische Verschiebung, um den Codex in den Kern der täglichen Entwickler-Workflows einzubetten und direkter mit etablierten Spielern zu konkurrieren. href=”https://marketplace.visualstudio.com/items?itemname=openai.chatgpt”target=”_ leer”> Neue IDE-Erweiterung für VS-Code, Cursor und verwandte Gabeln . Laut den offiziellen Versionshinweisen von OpenAI war dies die am meisten angeforderte Funktion, die den Codex schließlich von einem separaten Tool in einen nativen Teil der Codierungsumgebung bewegte, in dem Entwickler die meiste Zeit verbringen. Dadurch kann Codex die Vorschau auf lokale Änderungen vorschauen und den Code direkt innerhalb der IDE bearbeiten, wodurch sich die Interaktion fließender und kollaborativer als je zuvor anfühlt. Es verschiebt Codex von einem speziellen Tool für Power-Benutzer zu einem konstanten, zugänglichen Begleiter für ein viel breiteres Entwicklerpublikum. Die Erweiterung wird weiter vereinfacht und verwendet den vorhandenen ChatGPT-Plan eines Entwicklers für den Zugriff und beseitigt die Notwendigkeit eines komplexen API-Schlüsselaufbaus. Die Erweiterung ist auf dem Visual Studio Marketplace verfügbar und unterstützt offiziell MacOS und Linux. Während es unter Windows installiert werden kann, ist OpenAi fest, dass die Unterstützung immer noch experimentell ist, und empfiehlt es, es mit dem Windows-Subsystem für Linux (WSL) für die beste Erfahrung zu verwenden. In einer auf X beschriebenen Vision erklärte das Unternehmen, dass Codex jetzt als ein Agent in der IDE, Terminal, Cloud, Github und sogar Mobile arbeitet. Das Chatgpt-Konto eines Benutzers fungiert als zentraler Hub, das all diese Erfahrungen verbindet. fähig. pic.twitter.com/hcc4nqrxkn

-OpenAI-Entwickler (@Openenaidevs) 27. August, 2025

Aufgaben in die Wolke, um Asynchrone ausführlich zu leisten, zu staaten. Dies ermöglicht es einem Entwickler, mit der Arbeit in seinem Editor zu beginnen, einen komplexen oder langjährigen Job zur Verarbeitung in die Cloud zu bringen und dann die abgeschlossene Arbeit wieder in seine IDE zu bringen, um weiter zu bauen. Für Entwickler bedeutet dies, dass Sie den Kontext eines Projekts nicht erneut erläutern müssen, wenn Sie von dem Schreiben von Code lokal zum Debuggen im Terminal wechseln, einem gemeinsamen Reibungspunkt in komplexen Workflows. Wie ein Bericht feststellt, haben Entwickler zunächst eine Cloud-Umgebung für Codex eingerichtet und können dann einfach eine Option „Ausführen in der Cloud“ verwenden, um die Übergabe zu initiieren, wodurch der Prozess sehr praktisch wird. Die aktualisierte Terminalschnittstelle ist zuverlässiger und verfügt über eine leistungsstarke neue Suite von Tools, einschließlich Bildeingaben, Meldungswarteschlangen, vereinfachte Genehmigungsmodi, To-Do-Listen und integrierte Websuche. Dieses Upgrade stellt sicher, dass die Befehlszeile ein erstklassiger Bürger im neuen, einheitlichen Codex-Ökosystem bleibt. Das Tool wurde erstmals im April 2025 als Open-Source-CLI veröffentlicht. Es wurde später im Mai als Sandbox-Agent ohne Internetzugang in die Chatgpt-Plattform integriert. Im Juni wurden Internetfunktionen hinzugefügt. Die neue Github-Integration ist ein Hauptbeispiel, mit dem Entwickler Pull-Anfragen überprüfen können, indem sie einfach in einem Kommentar markiert werden. Die Strategie scheint über den einfachen Abschluss des Codes hinaus zu sein, um komplexere, multi-stufige technische Aufgaben anzugehen, die Copilot auf seinem Heimatrasen direkt herausfordern. Das Unternehmen hat seine fortgeschrittenen Argumentations-und Codierungsfähigkeiten angepriesen. CEO Sam Altman behauptet: „Dies ist das beste Modell der Welt bei der Codierung… das beste Modell der Welt beim Schreiben, das beste Modell der Welt bei der Gesundheitsversorgung und eine lange Liste von Dingen, die über das hinausgehen.“ Diese Leistung ist für die agierischen Workflows, die Openai, von wesentlicher Bedeutung. Benutzer dokumentierten schnell eine Reihe bizarrer Fehler und sachlicher Fehler, die die Glaubwürdigkeit des Modells beschädigten. Die Gegenreaktion veranlasste eine öffentliche Entschuldigung von Altman, der zugab, dass „ein fehlerhafter„ Autoswitcher “zwischen den internen Modi des Modells es länger geschafft hatte,„ viel dümmer “zu sein, als beabsichtigt zu sein. Das Unternehmen hat konsequent erklärt, dass es für Benutzer immer noch wichtig ist, alle mit Agenten erstellten Code vor der Integration und Ausführung manuell zu überprüfen und zu validieren”, eine entscheidende Erinnerung, wenn KI-Agenten autonomer und in kritische Softwareentwicklungsleitungen integriert werden.

Categories: IT Info