Po burzliwym wprowadzeniu modelu GPT-5, OpenAI testuje nową funkcję „Myślenie” dla Chatgpt, która zapewnia użytkownikom większą szczegółową kontrolę nad wydajnością AI. Zamknięte pod koniec sierpnia ustawienie eksperymentalne pozwala użytkownikom wybierać spośród czterech poziomów intensywności obliczeniowej.
Ten ruch jest bezpośrednią reakcją na powszechną krytykę, która zakłóciła premierę GPT-5, która skłoniła firmę do przywrócenia popularnego modelu GPT-4O i dodania ręcznych kontroli. Pozwalając użytkownikom na równoważenie szybkości odpowiedzi z głębokością analityczną, OpenAI ma na celu rozwiązanie problemów związanych z niezawodnością i poprawę wrażenia użytkownika.
Od niechlujnego uruchomienia do ręcznych elementów sterujących
Oryginalna wizja Openai dla GPT-5, uruchomiona 7 sierpnia, był ujednoliconym systemem, który automatycznie wybrał najlepszy model wewnętrzny. Celem było wyeliminowanie tego, co CEO Sam Altman nazwał „mylącym bałaganem” różnych modeli. Jednak ambitna strategia szybko się rozpadła.
Użytkownicy udokumentowali kaskadę dziwnych błędów i błędy faktyczne. Model wymyślił fikcyjne nazwy stanów, takie jak „Onegon”, nie powiodło się w podstawowej matematyce i wytworzył nonsensowne wyjścia, co prowadzi do powszechnego luzu. Przyjęcie publiczne było tak negatywne, że firma została zmuszona do rzadkiej postawy obronnej.
Do 8 sierpnia Altman wydał publiczne przeprosiny. Przyznał, że „wadliwy„ autoswitcher “między trybami wewnętrznymi modelu sprawiło, że dłużej„ wydawał się głupszy “niż zamierzony”, obwiniając techniczną wadę słabej wydajności. Ten potknięcie zapewniło amunicję krytykom i stworzył otwarcie rywali, którzy szybko wykorzystali sytuację.
Zaledwie kilka dni później, 12 sierpnia, Openai wykonał znaczące odwrócenie. Odrestaurował GPT-4O za płacenie subskrybentów i wprowadził tryby ręczne dla GPT-5: „Auto”, „Fast” i „Myślenie”. Ten punkt obrotu zasygnalizował główną lekcję lidera AI na temat równoważenia innowacji z oczekiwaniami użytkownika.
Nowa funkcja „Myślenie” wydaje się być bardziej szczegółową ewolucją tej korekty kursu. Sam Altman zasugerował na tej zmianie, stwierdzając: „Jedną z uczenia się dla nas od kilku ostatnich dni jest to, że tak naprawdę musimy po prostu dostać się do świata z większą liczbą dostosowywania osobowości modelowej.”
Openai, wiceprezes Chatgpt, Nick Turley, uznał proces iteracyjny, zauważając, że nie zawsze będziemy dostawać wszystkiego na wypróbowaniu #1, ale jestem bardzo dumny z zespołu. Informacje zwrotne od użytkownika.
pod maską: jak „wysiłek myślenia” działa
Nowy wybór wysiłku daje użytkownikom bezpośredni wpływ na budżet obliczeniowy modelu. Według raportów funkcja przedstawia cztery różne poziomy intensywności dla użytkowników do wyboru. Są to „lekkie”, „standardowe”, „rozszerzone” i „Max.”
Nowa wersja aplikacji internetowej Chatgpt ma zaktualizowany (ukryty) wysiłek do myślenia-Max myślenie (200), rozszerzone myślenie (48), standardowe myślenie (18), lekkie myślenie (5)
i kilka innych powiązanych eksperymentów, w tym pokazanie modeli plus w menu Plus, pokazując modelu Plus, pokazując wybrane modelu, pokazując modelu selekcji, w tym modelu, pokazując modelu selekcji, a selekcji. href=”https://t.co/onwcbq4cuw”target=”_ blank”> pic.twitter.com/onwcbq4Cuw
-tibor blaho (@btibor91) sierpnia 29, 2025
Każdy poziom odpowiada budżetowi „suding”, który wycofuje się, który wycisza, co wycisza. Kroki podejmowane przez model sformułowania odpowiedzi. Więcej „soku” zazwyczaj powoduje głębszą, dokładniejszą analizę, ale także zwiększa czas reakcji. Najwyższe ustawienie „maksymalne” jest podobno bramkowane dla subskrybentów Pro.
Ten wielopoziomowy system pozwala użytkownikom dostosować wydajność sztucznej inteligencji do określonych zadań. Użytkownik może wybrać „światło” na szybkie, proste pytanie, ale przełączyć się na „rozszerzony” lub „maksymalny” podczas pracy nad złożonym problemem, który wymaga dokładniejszego rozumowania, takiego jak wycena wiązania lub analiza kodu.
Może to być wskazówka nowej strategii wydajności, potencjalnie otwierając drzwi przyszłych modeli monetyzacji poza prostą subskrypcją. Formalizuje kompromis między prędkością a jakością, podstawowym wyzwaniem w rozmieszczeniu na dużą skalę AI.
Odpowiedź na głębsze obawy dotyczące bezpieczeństwa AI
To nacisk na większą kontrolę użytkownika polega nie tylko na naprawieniu premiery; Odzwierciedla szerszy przemysł z niezawodnością i bezpieczeństwem sztucznej inteligencji. Ta funkcja pojawia się wkrótce po tym, jak Openai i rywal antropiczny opublikował wyniki wspólnych testów bezpieczeństwa 28 sierpnia.
Testy również podkreśliły filozoficzny podział. Modele Anthropiku często odmawiały odpowiedzi na uniknięcie błędów, priorytetyzując ostrożność przed użytecznością. W przeciwieństwie do tego modele Openai były bardziej pomocne, ale także produkowano znacznie więcej błędów faktycznych lub halucynacji, w kontrolowanych testach . Marcus, który argumentował: „Nikt z intelektualną uczciwością nie może uwierzyć, że czyste skalowanie doprowadzi nas do AGI”, kwestionowanie całego paradygmatu „Większy jest lepszy”.
Moja praca jest naprawdę zakończona. Nikt z integralnością intelektualną nadal nie może wierzyć, że czyste skalowanie doprowadzi nas do AGI.
GPT-5 może być umiarkowaną poprawą ilościową (i może być tańszy), ale nadal zawodzi w taki sam sposób, jak jego poprzednicy, na szachach, na…
-gary marcus (@Garymarcus) 8 sierpnia 2025
Wyniki również wydają się wapoliować Safe Staging Lear. Twierdził, że w firmie „Kultura bezpieczeństwa i procesy zabrały się na błyszczące produkty.”
, umieszczając pokrętło „myślenia” bezpośrednio w rękach użytkowników, OpenAI upoważnia ich do złagodzenia niektórych z tych zagrożeń. Przeniesienie sygnalizuje strategiczne obrotek od zautomatyzowanego podejścia „jedno rozmiary” do bardziej przejrzystego, konfigurowalnego i ostatecznie bardziej obronnego wrażenia użytkownika.