Openai scheint eine Reihe neuer künstlicher Intelligenzmodelle vorzustellen und sie möglicherweise bereits in der nächsten Woche zur Verfügung zu stellen. Diese erwartete Rollout umfasst ein aktualisiertes multimodales Modell, das vorläufig GPT-4,1 bezeichnet wird und als Nachfolger von GPT-4O beschrieben wird, das Text, Audio und Vision verarbeitet. Adding weight to these reports, AI engineer Tibor Blaho posted on X today, that he discovered code references to o3, o4-mini, and o4-mini-high within a just-deployed ChatGPT web update. Der Verge stellte fest, dass OpenAI vor der Veröffentlichung nicht auf ihre Anfrage nach Kommentaren antwortete. target=”_ leer”> pic.twitter.com/huz9xwqwgp
1025
; Veröffentlicht signalisieren eine Kurskorrektur in der Produktstrategie von OpenAI. Am 4. April bestätigte CEO Sam Altman eine”Änderung der Pläne”, in der die Absicht besagt hat, O3 und O4-Mini”wahrscheinlich in ein paar Wochen”zu veröffentlichen, um den Start der weithin erwarteten GPT-5 durch”ein paar Monate”zu starten. Er führte dies teilweise auf die Entscheidung zurück, „Argumentationsmodelle und Chat-/Fertigstellungsmodelle zu entkoppeln“. Altman fügte hinzu, dass die bevorstehende O3-Veröffentlichung”Wir freuen uns über die Leistung, die wir von O3 intern sehen.”Er bemerkte auch auf X: „Es gibt eine Reihe von Gründen dafür, aber am aufregendsten ist, dass wir GPT-5 viel besser machen können, als wir ursprünglich ursprünglich [t]”
Der erneute Fokus auf separate Argumentationsmodelle wie O3 befasst sich mit einer Fähigkeitslücke, die selbst in den jüngsten Updates von OpenAI beobachtet wurde. Als GPT-4,5 Ende Februar als Effizienz und mehrsprachige Verbesserung gegenüber GPT-4O gestartet wurde, ist der eigene beschrieben GPT-4,5. Es wird erwartet, dass das bevorstehende vollständige O3-Modell, das im Dezember 2024 zunächst vorschau ist, eine separate Veröffentlichung von Modellen wie O3. Benchmarks aus der Vorschau zeigten hohe Punktzahlen in der Mathematik (96,7% für Aime 2024) und wissenschaftliche Argumentationstests (87,7% für GPQA Diamond). Diese fortgeschrittene Argumentation ist jedoch mit potenziell steilen Berechnungsanforderungen verbunden. Benchmark-Berichte zeigten in bestimmten Konfigurationen die Verwendung von bis zu 172-mal höher.”O”-Serie zeigt der Bericht auf GPT-4.1 als nächste Iteration in OpenAs Hauptmultimodalmodelllinie, die auf GPT-4O aufbaut. Die Existenz geplanter”Mini”und”Nano”-Versionen deutet auf einen abgestuften Ansatz hin, der ähnlich wie bei früheren Generationen, der unterschiedliche Fähigkeiten und Ressourcenbedarf für die Kernmodellfamilie bietet. Die Startpläne von OpenAI betreten einen Markt, auf dem der Zugang zu ausgedehnten KI-Argumentation unterschiedlich ist. Das Unternehmen vermarktet bereits das hochkarätige, von Enterprise-fokussierte O1-Pro-Modell über API, das OpenAI-Dokumentationsstaaten „Verwendet mehr Monather. O3-mini-hohes Modell in seine freie Copilot-Stufe Anfang März. Die Positionierung der vollständigen O3-und O4-Mini-Serie in der OpenAI-eigenen bezahlten Struktur bleibt unklar.
Während der Start eng erscheint, bleibt potenzielle Verzögerungen bestehen. Quellen, die von * die bezeichneten Kapazitätsbeschränkungen zitiert wurden, könnten die Zeitleiste verschieben. Altman selbst hat dies Anfang April angesprochen , Posting, die Benutzer „sollten,„ sollten neue Releases von Openai verzögert werden. Diese Einschränkungen ergeben sich trotz der massiven Finanzierungsrunden von OpenAI und großen Investitionen in Rechenressourcen, einschließlich eines Vertrags von 11,9 Milliarden US-Dollar mit CoreWeave und Teilnahme am von der Regierung unterstützten Stargate-Projekt für die inländische KI-Infrastruktur.
Der erneute Fokus auf separate Argumentationsmodelle wie O3 befasst sich mit einer Fähigkeitslücke, die selbst in den jüngsten Updates von OpenAI beobachtet wurde. Als GPT-4,5 Ende Februar als Effizienz und mehrsprachige Verbesserung gegenüber GPT-4O gestartet wurde, ist der eigene beschrieben GPT-4,5. Es wird erwartet, dass das bevorstehende vollständige O3-Modell, das im Dezember 2024 zunächst vorschau ist, eine separate Veröffentlichung von Modellen wie O3. Benchmarks aus der Vorschau zeigten hohe Punktzahlen in der Mathematik (96,7% für Aime 2024) und wissenschaftliche Argumentationstests (87,7% für GPQA Diamond). Diese fortgeschrittene Argumentation ist jedoch mit potenziell steilen Berechnungsanforderungen verbunden. Benchmark-Berichte zeigten in bestimmten Konfigurationen die Verwendung von bis zu 172-mal höher.”O”-Serie zeigt der Bericht auf GPT-4.1 als nächste Iteration in OpenAs Hauptmultimodalmodelllinie, die auf GPT-4O aufbaut. Die Existenz geplanter”Mini”und”Nano”-Versionen deutet auf einen abgestuften Ansatz hin, der ähnlich wie bei früheren Generationen, der unterschiedliche Fähigkeiten und Ressourcenbedarf für die Kernmodellfamilie bietet. Die Startpläne von OpenAI betreten einen Markt, auf dem der Zugang zu ausgedehnten KI-Argumentation unterschiedlich ist. Das Unternehmen vermarktet bereits das hochkarätige, von Enterprise-fokussierte O1-Pro-Modell über API, das OpenAI-Dokumentationsstaaten „Verwendet mehr Monather. O3-mini-hohes Modell in seine freie Copilot-Stufe Anfang März. Die Positionierung der vollständigen O3-und O4-Mini-Serie in der OpenAI-eigenen bezahlten Struktur bleibt unklar.
Während der Start eng erscheint, bleibt potenzielle Verzögerungen bestehen. Quellen, die von * die bezeichneten Kapazitätsbeschränkungen zitiert wurden, könnten die Zeitleiste verschieben. Altman selbst hat dies Anfang April angesprochen , Posting, die Benutzer „sollten,„ sollten neue Releases von Openai verzögert werden. Diese Einschränkungen ergeben sich trotz der massiven Finanzierungsrunden von OpenAI und großen Investitionen in Rechenressourcen, einschließlich eines Vertrags von 11,9 Milliarden US-Dollar mit CoreWeave und Teilnahme am von der Regierung unterstützten Stargate-Projekt für die inländische KI-Infrastruktur.