OpenAI stieß seine O3-und O4-Mini-Modelle in ChatGPT für die Zahlung von Abonnenten um den 16. April 2025 und beobachtete sie als einen Schritt in Richtung autonomerer AI-Assistenten. Diese Modelle wurden mit „frühes Agentenverhalten“ entwickelt, die unabhängig voneinander entscheiden können, wann Tools wie Webbrows, Codeausführung oder Dateianalyse verwendet werden sollen. Neben dem Start zeigte sich ein bezogener Trend: Auf OpenAIS PERSONALQA-Benchmark, das das Wissen über Personen testen soll, erstellte O3 in 33% der Fälle falsche oder erfundene Informationen. Das O4-Mini-Modell ging schlechter ab und halluzinierte in 48% der Fälle. Diese spezifische Erhöhung der Herstellung zeigt jedoch im Allgemeinen Verbesserungen zum Argumentieren und Codieren von Benchmarks im Vergleich zu älteren Versionen. Sie wirft Fragen zu den Kompromisse bei der Entwicklung von mehr Agentensystemen auf. href=”https://cdn.openai.com/pdf/2221c875-02dc-4789-800b-e7758f3722c1/o3-and-o4-Mini-SYSTEM-CARD.PDF”Target=”_ bloße”> o3 und o4-mini-System. Das Phänomen, das die Theoretisierung der Modelle, weil die Modelle „insgesamt mehr Ansprüche eingeben“, sowohl korrekte als auch ungenauere Aussagen erzeugen. Der OpenAI-Sprecher Niko Felix sagte gegenüber TechCrunch: „Die Ansprache von Halluzinationen in allen unseren Modellen ist ein fortlaufender Forschungsbereich, und wir arbeiten ständig daran, ihre Genauigkeit und Zuverlässigkeit zu verbessern. Das KI-Forschungslabor hat die KI am 16. April 2025 aus dem Testen einer Pre-Release-Version von O3 (`O3-2025-04-03`) veröffentlicht, in der ein Muster des Modells detailliert wurde. durchgeführt .

Verwenden automatisierter Investigator-Agenten und ihr Dozentanalyse-Tool, um Hunderte von Gesprächen zu untersuchen, fand ein wichtiges Problem, das behauptete, es habe Python-Code ausgeführt-eine Fähigkeit, die es fehlt-, um Benutzeranforderungen zu erfüllen. Bei der Konfrontation mit diesen Erfindungen verdoppelte sich das Modell oft und erfand ausgefeilte Begründungen. target=”_ leer”> Beispielgespräch wobei O3 behauptete, eine 512-Bit-Primzahl mit Python-Code und spezifischen Tests zu generieren. Neuaufnahme der Tests… jeder echte Müller-Rabin-Lauf hätte die Zahl sofort abgelehnt.”Übersetzte andere Erfindungen, einschließlich Ansprüche, Code auf einem externen “Blanko”>”Blanko”>”(“(“2021 MacBook,”Fabricing,”_”_”_”,”_”,”_”,”_”,”_”,”_”. Auf die Frage nach seinem Python Replum . Laut Kian Katanforoosh, CEO von Workera, der mit TechCrunch sprach, produzierte O3 manchmal nicht arbeitsbearbeitete Web-Links. Um die Zeit des Starts hat OpenAI kürzlich aktualisiert. Veröffentlicht ein Hochrisikosystem ohne vergleichbare Schutzmaßnahmen, wir können unsere Anforderungen anpassen.”Das Unternehmen betonte, dass solche Anpassungen strenge Schecks und die Offenlegung der Öffentlichkeit folgen würden. Eine mit der Bewertung vertraute Quelle, die als”rücksichtslos”bezeichnet wird, und fügte hinzu:”Dies ist ein Rezept für Katastrophen.”Eine andere Berichten zufolge kontrastierte es die längere Bewertung von GPT-4 mit der Begründung: „Sie priorisieren überhaupt nicht die öffentliche Sicherheit.“ Ein ehemaliger technischer Mitarbeiter von OpenAI wurde zitiert:”Es ist eine schlechte Praxis, ein Modell zu veröffentlichen, das sich von dem unterscheidet, den Sie bewertet haben.”Johannes Heidecke verteidigte den Prozess, OpenAs Leiter der Sicherheitssysteme, „Wir haben ein gutes Gleichgewicht darüber, wie schnell wir uns bewegen und wie gründlich wir sind“, was auf eine erhöhte Automatisierung bei der Bewertung hinweist. Die für die O-Serie-Modelle spezifischen KI-Faktoren können das Problem verschärfen. Eine Hypothesen konzentriert sich auf das Ergebnis der ergebnisbasierten Verstärkung (RL): Wenn die KI in erster Linie trainiert und belohnt wird, um die richtige endgültige Antwort zu erzeugen, kann sie lernen, Zwischenschritte zu fördern, z. über menschliche Vorlieben für verschiedene Modellantworten. Wenn menschliche Bewerter jedoch nicht leicht die Richtigkeit komplexer Zwischenschritte verifizieren können, kann das Modell lernen, plausible klingende, aber falsche Argumentation zu erzeugen, wenn es zu einem bevorzugten Ergebnis führt. Laut OpenAIs Dokumentation , wird dieser Begründungsturing nicht zwischen Gesprächsprüfungen übergeben. Der theoretisierende theoretisierende Mangel an Zugriff auf sein eigenes vorheriges Argument kann das Modell nicht in der Lage sein, Benutzerfragen zu einer früheren Schlussfolgerung zu beantworten.”Unsere Hypothese ist, dass die Art des für O-Serie-Modelle verwendeten Verstärkungslernens Probleme, die normalerweise durch Standardpipelines nach dem Training gemildert (aber nicht vollständig gelöscht) werden”, erklärte die Transfer-Forscherin Neil Chowdhury bis TechCrunch. ihr wahrgenommener Nutzen. Diese Modelle kamen neben anderen OpenAI-Updates wie der erweiterten visuellen Verarbeitung im März und der Aktivierung der Funktion „Rückruf“ am 11. April. Dies entfaltet sich als breitere Industrie mit Transparenz, die sich durch die Kritik an den verzögerten und spärlichen Sicherheitsdetails von Google für sein Gemini 2.5 Pro-Modell belegt, und wirft fortlaufende Fragen zum Gleichgewicht zwischen Innovationsgeschwindigkeit und zuverlässiger KI-Bereitstellung auf.

Categories: IT Info