Nach der turbulenten Rollout seines GPT-5-Modells testet OpenAI eine neue Funktion „Thinking Bemühungen“ für ChatGPT, die den Benutzern die Leistung der KI eine stärkere Kontrolle über die Leistung der KI gibt. Die Ende August entdeckte experimentelle Einstellung ermöglicht es Benutzern, aus vier Ebenen der Rechenintensität zu wählen. OpenAI ermöglicht die Ausgleich der Reaktionsgeschwindigkeit gegen die analytische Tiefe und zielt darauf ab, Zuverlässigkeitsbedenken zu beheben und die Benutzererfahrung zu verbessern. Das Ziel war es, das zu beseitigen, was CEO Sam Altman als”verwirrendes Durcheinander”verschiedener Modelle bezeichnet hatte. Die ehrgeizige Strategie löste sich jedoch schnell auf. Das Modell erfand fiktive Staatsnamen wie „Onegon“, die bei Basic Math nicht gescheitert war und unsinnige Ausgaben erbrachte, was zu weit verbreiteten Gegenreaktionen führte. Der öffentliche Empfang war so negativ, dass das Unternehmen in eine seltene defensive Haltung gezwungen wurde. Er gab zu, dass”ein fehlerhafter”Autoswitcher”zwischen den internen Modi des Modells es länger geschafft hatte”viel dümmer”als beabsichtigt zu sein, und beschuldigte einen technischen Fehler für die schlechte Leistung. Dieser Stumble lieferte Munition für Kritiker und schuf eine Eröffnung für Rivalen, die schnell von der Situation profitierten. Es restaurierte GPT-4O für die Zahlung von Abonnenten und führte manuelle Modi für GPT-5 vor: „Auto,„ Fast “und„ Thinking “. Dieser Pivot signalisierte eine wichtige Lektion für den KI-Führer über das Ausgleich von Innovationen mit den Erwartungen der Benutzer. Altman selbst wies auf diese Verschiebung hin und erklärte: „Ein Lernen für uns aus den letzten Tagen ist, dass wir wirklich nur in eine Welt mit mehr Anpassung der Modellpersönlichkeit in eine Welt kommen müssen.“ Antwort auf das Feedback des Benutzer. Berichten zufolge enthält die Funktion den Benutzern vier verschiedene Intensitätsebenen. Dies sind”Licht”,”Standard”,”erweitert”und”max”. href=”https://t.co/onwcbq4cuw”target=”_ leer”> pic.twitter.com/onwcbq4cuw
-Tibor Blaho (@btibor91) 29. August, 2025 , wobei die TRECTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE-HOKTE>
Mit diesem abgestuften System können Benutzer die Leistung der KI auf bestimmte Aufgaben anpassen. Ein Benutzer kann für eine schnelle, einfache Frage”Licht”auswählen, wechseln jedoch zu”Extended”oder”Max”, wenn Sie an einem komplexen Problem arbeiten, das eine gründlichere Argumentation erfordert, wie z. B. Bindungsbewertung oder Codeanalyse. Es formalisiert den Kompromiss zwischen Geschwindigkeit und Qualität, einer zentralen Herausforderung im groß angelegten KI-Einsatz. Es spiegelt eine breitere Branche wider, die mit der Zuverlässigkeit und Sicherheit von KI rechnen. Das Feature kommt kurz nach dem OpenAI an und hat am 28. August die Ergebnisse der gemeinsamen Sicherheitstests veröffentlicht. Als”Duell”im KI-Wettrüsten zeigte er alarmierende Mängel in beiden Unternehmensmodellen . In den Berichten wurden detaillierte Themen wie”Extreme Sycophancy”, bei denen Modelle die wahnhaften Überzeugungen eines Benutzers validieren, und die Bereitschaft, gefährliche Anfragen zu unterstützen. Die Modelle von Anthropic weigerten sich oft, zu antworten, um Fehler zu vermeiden, und priorisierten Vorsicht vor dem Nutzen. Im Gegensatz dazu waren OpenAIS-Modelle hilfreicher, aber auch produzierte signifikant mehr sachliche Fehler oder Halluzinationen, in denen die kontrollierten Tests für Kritiken für die Kritik-Debaker-Forschungs-Forschungsarbeiten für die Halluzination (p>
-Scharn). Marcus, der argumentierte: „Niemand mit intellektueller Integrität kann immer noch glauben, dass reine Skalierung uns zu Agi bringen wird.”Niemand mit intellektueller Integrität kann immer noch glauben, dass reine Skalierung uns zu Agi bringen wird. href=”https://twitter.com/garymarcus/status/1953939152594252170?ref_src=twsrc%5ETFW”Target=”_ Blank”> August, 8. August, 2025
Die Ergebnisse, die die Ergebnisse zu validieren. behauptete, im Unternehmen habe „Sicherheitskultur und Prozesse in glänzende Produkte in den Hintergrund gezogen“. Der Bewegung signalisiert einen strategischen Drehpunkt aus einem automatisierten Ansatz mit „Einheit-Fits-All“ zu einem transparenter, anpassbaren und letztendlich verteidigungsfähigeren Benutzererlebnis.