OpenAI hat am 15. September GPT-5-Codex gestartet, ein leistungsstarkes neues KI-Modell, das als Engine für seinen Codierungsassistenten, Codex, dient. Die Veröffentlichung zielt darauf ab, einen einheitlichen „virtuellen Teamkollegen“ für Entwickler und Herausfordern von Konkurrenten wie Microsoft und Google auf dem überfüllten KI-Codierungsmarkt zu erstellen. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mty0odo4ndq=-1; Base64, PHN2ZyB2AWV3QM94PSIWIDAGNZE4IDQ1 Niigd2lkdgg9ijcxocigagvpz2h0psi0ntyiihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”>

Das neue Modell ist jetzt die Standardeinstellung für alle Cloud-Aufgaben und Code-Überprüfungen im Codex-Ökosystem. Es steht allen zahlenden Chatgpt-Abonnenten zur Verfügung, darunter die Pläne für Plus-, Pro-, Business-, EDU-und Enterprise-Pläne mit API-API-API-API-API-API-API. Das Tool begann im April als Open-Source-CLI, wurde im Mai in Chatgpt integriert und erhielt im Juni einen Internetzugang. Dieser neueste Schritt verwandelt es in einen tief integrierten Entwicklungspartner. Dieses fokussierte Training macht es lenkbarer und besser bei der Erzeugung von qualitativ hochwertigem, sauberem Code, ohne lange Anweisungen vom Entwickler zu erfordern. Es navigiert ganze Codebasen, Gründe durch Abhängigkeiten und führt Tests aus, um die Korrektheit zu validieren, bevor sie Empfehlungen abgeben. CLI und automatisierte Github-Pull-Anfrage-Bewertungen, die den Grundstein für diesen leistungsstärkeren Motor legen. Das Modell kann sein Rechenbudget und die Zeit für eine Aufgabe in Echtzeit anpassen und sich an die Komplexität eines Problems anpassen. Diese Persistenz ist ein wesentliches Unterscheidungsmerkmal im agentencodierungsraum. Dies wird ohne das vom allgemeinen GPT-5-Modell verwendete Router-System erreicht. Entwickler können sich nahtlos zwischen ihrer lokalen IDE, dem Terminal und der Cloud bewegen, ohne den Kontext zu verlieren, und erzeugen einen flüssigeren und effizienterer Workflow. Mit Konkurrenten wie der Claude-Serie von Google und Anthropic, die die Grenzen der Agentenfunktionen überschreiten, nutzt OpenAI seine einheitliche Plattform als Schlüsselvorteil. Testimonials von Unternehmen wie Duolingo, Virgin Atlantic und Cisco Meraki loben die reale Leistung des Werkzeugs. src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mty1nzo5ote=-1; Base64, PHN2ZyB2AWV3QM94PSIWIDAGMTA0NSA0NTMI Ihdpzhropsixmdq1iibozwlnahq9ijq1myigg1Sbnm9imH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”>

Aaron Wang von Duolingo bemerkte: „Es übertraf andere Tools in Backend-Code-Überprüfungs-Benchmarks und fangen Kompatibilitätsprobleme und Fehler auf, die andere verpassten.“ Zyklen.”

Für komplexere Jobs verwendete Tres Wong-Godfrey von Cisco Meraki”Codex, um einen komplexen Refaktor für die Codebasis eines anderen Teams zu bewältigen, und befreit ihn, um sich auf andere Prioritäten zu konzentrieren, während Codex getestet wurde. Clean Diffs,”unterstreicht seinen Nutzen als Hintergrundkollaborateur. Das Unternehmen führt Codex in einer Sandbox-Umgebung aus, wobei der Netzwerkzugriff standardmäßig deaktiviert ist, um Risiken zu mindern. Es wird jedoch behauptet, dass Entwickler immer den Code des Agenten erstellen und validieren sollten.

Letztendlich positioniert OpenAI Codex nicht als Ersatz für Tools wie Github Copilot, sondern als ergänzender Partner für die Delegation höherer Ebene. Ziel ist es, einen echten „virtuellen Teamkollegen“ zu schaffen, der bedeutende technische Arbeiten übernehmen kann und Entwickler sich auf strategischere Herausforderungen konzentrieren kann.