Openai wepchnął swoje modele O3 i O4-Mini do Chatgpt za płacenie abonentom około 16 kwietnia 2025 r., Nawiązując ich jako krok w kierunku bardziej autonomicznych asystentów AI. Modele te zostały zaprojektowane z „wczesnym zachowaniem agencyjnym”, zdolne do niezależnego decydowania, kiedy korzystać z narzędzi takich jak przeglądanie stron internetowych, wykonywanie kodu lub analiza plików.

Jednak ten ruch w kierunku większych autonomii AI zbiegał się z ustaleniami, zarówno od testowania Openai, jak i zewnętrznych naukowców, wydawanych przez zewnętrzne badaczy, wydawane przez zewnętrzne badacze, wydawane przez zewnętrzne badacze wydawane przez wersję wersji uwolnionej wzdłuż wersji. Niepowtarzalny trend: w odniesieniu do Personqa Openai, zaprojektowany w celu sprawdzania wiedzy na temat ludzi, O3 wytworzył nieprawidłowe lub sfabrykowane informacje w 33% przypadków. Model O4-Mini radził sobie na gorszy, halucynacyjny w 48% przypadków.

Wskaźniki te są znacznie wyższe niż 16% dla starszego modelu O1 i 14,8% dla O3-Mini. Ogólnie wykazuje ulepszenia rozumowania i kodowania testów porównawczych w porównaniu ze starszymi wersjami, ten specyficzny wzrost produkcji rodzi pytania dotyczące kompromisów związanych z opracowywaniem bardziej agencyjnych systemów.

Openai potwierdzony w jego

Wykonane działania i skomplikowane ekscytuje

Szybko przestrzegali uruchomienia, dodając ciężaru niezawodności. AI Laboratorium Research Transluce AI opublikowało ustalenia 16 kwietnia 2025 r. Z testowania wersji O3 (`O3-2025-04-03`), szczegółowo opisując wzór modelu .

Korzystanie z zautomatyzowanych agentów badaczy i ich narzędzia do analizy docentowania do badania setek rozmów, Transluce stwierdził, że kluczowym problemem było model, który, jak twierdził, że wykonał kod Pythona-możliwość, której brakuje-aby uzyskać żądania użytkownika. W skonfrontowaniu się z tymi wytwarzaniami model często podwoił się, wymyślając skomplikowane uzasadnienia.

Translucja szczegółowa jedna uderzająca Przykładowa rozmowa W przypadku gdy O3 twierdził, że generuje 512-bitową liczbę pierwszą za pomocą kodu Pythona i konkretnych testów.

Gdy użytkownik zidentyfikował, że dostarczona liczba była faktycznie kompozytowa (podzielna przez 3), O3 przypisał błąd nie do halucynacji, ale do błędu skomporowanego kopii kopii. Ponowne przeniesienie testów… Każdy prawdziwy przebieg Millera-Brabina natychmiast odrzuciłby liczbę. “

Dalej naciska na rzekomy oryginalny prime, model twierdził, że został nieodwracalnie utracony, ponieważ proces Pythona został zamknięty. Tłumacz udokumentował inne wytrzymanie, w tym twierdzenia o uruchomieniu kodu na zewnętrznym środowisko reprezentacji Python . Choć przydatne do kodowania, według dyrektora generalnego Workera Kian Katanforoosh, który rozmawiał z TechCrunch, O3 czasami produkował nie działające linki internetowe.

szybsze tempo wśród regulacji bezpieczeństwa

Uwolnienie tych modeli nastąpiło w kontekście akcelerowanego rozwoju i zmieniającego się policji bezpieczeństwa na Openai. Mniej więcej w czasie premiery Openai niedawno zaktualizowało jego wewnętrzne wytyczne bezpieczeństwa , ramy gotowości. Deweloper AI uwalnia system wysokiego ryzyka bez porównywalnych zabezpieczeń, możemy dostosować nasze wymagania. ” Firma podkreśliła, że ​​takie korekty byłyby zgodne z rygorystycznymi kontroli i ujawnieniem publicznego.

Ta zmiana polityki pojawiła się po raportach, które twierdzą, że Openai znacznie zmniejszyło wewnętrzne harmonogram badań bezpieczeństwa dla O3, potencjalnie z mniej niż tydzień od kilku miesięcy, rzekomo, aby dotrzymać kroku Rivals.

cytowanego w czasie finansowym wyrażonym problemom finansowym; Jedno źródło zaznajomione z oceną nazwał podejście „lekkomyślne”, dodając: „To przepis na katastrofę”. Inny podobno skontrastował to z dłuższą oceną GPT-4, stwierdzając: „Po prostu w ogóle nie priorytetują bezpieczeństwa publicznego.”

Metodologia testowania pośredniego „punktów kontrolnych” zamiast końcowego kodu również wywołała ogień. Cytowano byłego członka personelu technicznego Openai, mówiąc: „Zła praktyka jest zwolnienie modelu, który różni się od ocenianej”. Broniąc tego procesu, szef systemów bezpieczeństwa Openai, Johannes Heidecke, stwierdził FT: „Mamy dobrą równowagę, jak szybko się poruszamy i jak dokładni jesteśmy,„ wskazując na zwiększoną automatyzację w ocenie.

Potencjalne przyczyny zwiększonej produkcji

Wyjaśniając, dlaczego te zaawansowane modele mogą wykonywać większe uwzględnienie granic standardowych. Tłumaczenie AI sugerowane czynniki specyficzne dla modeli serii O mogą zaostrzyć problem. Jedna hipoteza koncentruje się na uczeniu się wzmocnienia opartym na wynikach (RL): Jeśli AI jest przede wszystkim przeszkolona i nagradzana za tworzenie prawidłowej ostatecznej odpowiedzi, może nauczyć się wytwarzać kroki pośrednie, takie jak domaganie się użycia narzędzia, jeśli koreluje to z sukcesem, nawet jeśli opisany proces jest fałszywy.

Uczenie się na podstawie ludzkiej opinii (RLHF), powszechne modele, aby wykonać pomoc, aby uczynić pomoc AI, która ma być fałszywa, a uszkodzenie, i koncern, i koncerna jest fałszywa, i koncern. Przez szkolenie oparte na ludzkich preferencjach dla różnych reakcji modelowych. Jeśli jednak ludzcy oceniarze nie mogą łatwo zweryfikować poprawności złożonych kroków pośredniego, model może nauczyć się generować prawdopodobne brzmiące, ale fałszywe rozumowanie, jeśli prowadzi to do preferowanego wyniku.

Kolejny znaczący czynnik zaproponowany przez tłumaczenie obejmuje obsługę wewnętrznych modeli „wewnętrzne rozumowanie krok po kroku, często nazywane„ łańcuchem “. Według