OpenAI hat seine Entscheidung im Februar umgekehrt, das O3-Modell zu kündigen, und kündigte stattdessen an, dass es in den kommenden Wochen O3 und O4-Mini starten wird-und GPT-5 bis später in diesem Jahr auf Eis leisten. Das Update wurde von CEO Sam Altman in einem Beitrag auf X bestätigt, in dem er sagte, das Unternehmen werde nun immer wieder von seinen allgemeinen Sprachmodellen getrennt argumentieren. Chat/Fertigstellung Modelle.”Altman schrieb. Er fügte hinzu:”Wir freuen uns über die Leistung, die wir von O3 intern sehen.”src=”https://winbuzzer.com/wp-content/uploads/2023/08/openai-logo.jpg”>
Es gibt eine Reihe von Gründen dafür, aber das aufregendste ist, dass wir GPT-5 viel besser machen können als wir ursprünglich…
href=”https://twitter.com/sama/status/1908167621624856998?ref_src=twsrc%5ETFW”Ziel=”_ Blank”> 4. April, 2025
Die Umkehrung. in GPT-5. Diese Strategie zielte darauf ab, die Benutzerverwirrung zu verringern und die Produktkomplexität zu optimieren. Openai hatte gesagt, es wollte ein einzelnes System erstellen, das alle Funktionen dienen könnte, ohne einen „Modellpicker“ zu erfordern. In Einstellungen mit niedriger Effizienz und 91,5% im hocheffizienten Modus. Auf der AIME 2024 Mathematics Benchmark erreichte es 96,7%. Es war auch gut bei GPQA Diamond, einem Test für die Argumentation auf PhD-Ebene, mit einer Punktzahl von 87,7%. Diese Zahlen platzieren O3 über GPT-4,5 und O3-Mini in bestimmten technischen Aufgaben, insbesondere in strukturierten Domänen. Dies ermöglicht es, komplexe mehrstufige Probleme effektiver als frühere Modelle anzugehen. O3 ermöglicht es Entwicklern, die Argumentationstiefe zu erhöhen, aber der Kompromiss ist eine starke Rechennutzung-bis 172-fache in hocheffizienten Konfigurationen. Diese Anforderungen wurden im Bogen-Benchmark-Blog bestätigt und stellen Fragen zur Machbarkeit in der Skala auf.
o4-mini, obwohl unveröffentlicht, wird voraussichtlich ein kleineres Geschwister zu O3 sein. Basierend auf den Namenskonventionen von OpenAI bietet es wahrscheinlich reduzierte Rechenanforderungen mit vielen der gleichen Argumentationsvorteile. Das Unternehmen hat noch keine öffentlichen Benchmarks oder Spezifikationen geteilt. Am 20. März startete das Unternehmen O1-Pro über den API-Zugriff und zielte auf Unternehmensnutzungsfälle wie legale Tech-und Agent-Pipelines ab. Das Modell unterstützt bis zu 100.000 Output-Token und benötigt frühere Ausgaben in Höhe von 5 US-Dollar, um den Zugriff freizuschalten. Die Preisgestaltung beginnt bei 150 USD pro Million Input-Token und 600 US-Dollar für Ausgaben. Die Kosten, wie am 7. März berichtet. Dies zeigt eine Abweichung in Geschäftsmodellen: Microsoft Bundles OpenAIs Argumentationstools in eine breitere Software, während OpenAI die Argumentation als Premium-Funktion monetarisiert. Altman sagt, dass das Modell”in wenigen Monaten”eintreffen wird, obwohl kein bestimmtes Datum angegeben wurde. Beim Start wird von GPT-5 erwartet, dass er Argumentation und Erzeugung in ein System integriert. Dieses Ziel wurde ursprünglich im inzwischen verlassenen Februar-Plan zitiert, O3 in GPT-5 zu falten. GPT-4, das Ende Februar veröffentlicht wurde, erweiterte das Kontextfenster des Systems auf 200.000 Token und führte Verbesserungen im mehrsprachigen Verständnis ein. Im Vergleich zu O3-Mini-Benchmarks unterliegt es jedoch immer noch in Mathematik und Wissenschaft. Altman beschrieb GPT-4,5 als „das erste Modell, das sich anfühlt, mit einer nachdenklichen Person zu sprechen“, räumte jedoch ein, dass das Modell nicht als Argumentationskraftwerk konzipiert wurde. OpenAI gab zu, dass Modelle wie O3-Mini in hochrangigen Domänen wie Codierung und fortgeschrittener Problemlösung immer noch GPT-4,5 übertrafen. Die jüngste Roadmap-Verschiebung entfaltet sich neben erheblichen finanziellen und infrastrukturellen Umzügen. Am 1. April kündigte das Unternehmen einen von SoftBank geleiteten Tend-Deal in Höhe von 40 Milliarden US-Dollar an, der seine Bewertung auf 300 Milliarden US-Dollar erhöhte. Die Struktur des Deals-vor allem der Umsatz mit sekundärem Anteil-hat frühe Mitarbeiter und Investoren ausgelöst und gleichzeitig den Druck auf OpenAI erhöht, hochwertige Produkte zu versenden. Im März unterzeichnete es ein Rechenvertrag von 11,9 Milliarden US-Dollar mit CoreWeave und übernahm eine Beteiligung von 350 Millionen US-Dollar an der Gesellschaft. In Zusammenarbeit mit Broadcom und TSMC wird auch die Entwicklung von benutzerdefinierten KI-Chips fortgesetzt. Frühe Designs erwarten später in diesem Jahr.
Modell mit offenem Gewicht und Transparenz-Push
Kurz vor der O3-Umkehrung kündigte Altman auch an, dass OpenAI die Veröffentlichung seines ersten Open-Gewichts-Sprachmodells seit GPT-2 vorbereitet. Er beschrieb das Modell als „ziemlich fähig“ und bat Entwickler und Forscher, Feedback zur Verbesserung des Nutzens zu geben. Das Unternehmen stellte klar, dass das Modell vorgeborene Gewichte, aber keine Trainingsdaten oder Code enthalten wird. Altman schrieb. Der Umzug erfolgt inmitten der wachsenden Nachfrage der Entwickler nach Transparenz und als Reaktion auf die Konkurrenz durch Open-Source-Modelle, die von Meta, Mistral und Deepseek veröffentlicht wurden. Im Februar begann das Unternehmen, interne Argumentationsspuren von O3-Mini zu enthüllen und Entwicklern und Forschern zu helfen, zu verstehen, wie Modelle zu Antworten kommen. Diese Entscheidung spiegelt eine breitere Verschiebung der Erklärung in der Argumentationsmodellfamilie des Unternehmens wider. Anstatt darauf zu warten, die Funktionen in einem allumfassenden Frontier-Modell zu bündeln, veröffentlicht OpenAI jetzt spezielle Werkzeuge, wenn sie produzierungsbereit werden. Benutzer sind jetzt mit mehr Modelltypen ausgesetzt, aber jeder ist besser für bestimmte Aufgaben optimiert. Unternehmen können High-End-Argumentationsmodelle wie O1-Pro übernehmen, während Entwickler Zugang zu Zwischensystemen wie O4-Mini erhalten-oder zu offenen Versionen für transparentere Experimente. Ob GPT-5 diese Angebote letztendlich konsolidieren wird-oder nur eine weitere Filiale im expandierenden Modellbaum des Unternehmens-, ist zu sehen.