Openai oficjalnie uruchomiła swoją rodzinę modelową GPT-4.1, wprowadzając trzy nowe wersje-GPT-4.1, GPT-4.1 Mini i GPT-4.1 Nano-które mają na celu zrównoważenie wydajności najwyższego poziomu z elastycznym kosztem i prędkością. Zbudowany w celu przewyższenia swoich poprzedników, seria GPT-4.1 poprawia podstawowe możliwości, takie jak wytwarzanie kodu, instrukcje i rozumowanie długiego kontaktu, zapewniając jednocześnie niższe opóźnienie i bardziej spójne użycie narzędzi.

W przeciwieństwie do GPT-4 i GPT-4O, które zasilają chatgpt dla użytkowników Pro, nowe modele są dostępne wyłącznie za pośrednictwem API Openai-podnosząc ciągłe skupienie się na przedsiębiorstwie i integracji programistów, a nie użycie chatbota.

To nie tylko techniczna aktualizację. Podział nowych modeli na trzy odrębne poziomy wydajności, OpenAI daje użytkownikom interfejsu API możliwość skalowania na podstawie wielkości obciążenia i budżetu. Na górze standardowy model GPT-4.1 jest przeznaczony do najbardziej złożonych aplikacji i jest odpowiednio wyceniony: 2 USD za milion tokenów wejściowych i 8 USD za milion tokenów wyjściowych.

GPT-4.1 MINI to opcja na środkowym ziemi, oferującym prawie parytet w testach testowych wywiadowczych o znacznie niższym opóźnieniu-cenie 0,40 USD za milion tokenów wejściowych i 1,60 USD za milion produkcji. W przypadku lekkich zadań i przypadków użycia w czasie rzeczywistym, GPT-4.1 Nano jest najbardziej opłacalnym, co kosztuje zaledwie 0,10 USD za tokeny wejściowe i 0,40 USD za milion tokenów wyjściowych.

Każdy model ma kompromisy wydajności, ale OpenAI twierdzi, że nawet najmniejszy model, Nano, osiągają lice poprzednie, takie jak GPT-4O w wielu benchmmarkach. Te dodatki odzwierciedlają rosnący nacisk Openai na udostępnianie generatywnej sztucznej inteligencji w szerszym zakresie przypadków użycia-od wysokiej wydajności agencyjnych przepływów pracy po wbudowane narzędzia w aplikacjach konsumenckich.

W szczególności wszystkie trzy modele dzielą tę samą granicę wiedzy (czerwca 2024 r.) I zostały dostrojone do dostarczania bardziej deterministycznych, formatowych wyników niż wcześniejsze generacje-zmniejszając halucynacje i poprawę niezawodności integracji w środowiskach produkcyjnych.

Strukturyzowane wyceny i ukierunkowane ulepszenia między GPT-4,1 sugerują, że rozmyślność w kierunku API do badań i prototypowania, ale do wdrożenia na dużą skalę w oprogramowaniu komercyjnym, platformach SaaS i systemach agentów autonomicznych. Ponieważ GPT-4.1 jest teraz ustawiony jako następca niedługo złożonego podglądu GPT-4.5 (kończąc 14 lipca 2025 r.), Openai wyjaśnia, że ​​ta generacja ma nosić wagę operacyjną wielu swoich partnerów komercyjnych. znaczące postępy w stosunku do ich poprzedników. Standardowy model GPT-4.1 osiągnął wynik 54,6% w weryfikowana przez grzbiet referencja weryfikowana przez GPT-4,5.

W następujących instrukcjach GPT-4.1 uzyskał 38,3% na Skala Multichallenge Benchmark , odzwierciedlając 10,5% wzroście absolutnego ponad GPT-4O.

Ponadto GPT-4.1 Ustaw nowy najnowocześniejszy wynik na

Openai wprowadził również dwie usprawnione wersje: GPT-4.1 Mini i GPT-4.1 Nano. GPT-4.1 MINI oferuje zmniejszenie opóźnień i kosztów, osiągając prawie połowę opóźnienia i 83% redukcji kosztów w porównaniu z GPT-4O, jednocześnie dopasowując lub przekraczając wydajność GPT-4O w ocenie wywiadu.

GPT-4.1 Nano, najmniejszy i najszybszy model Openai do tej pory, jest zoptymalizowany pod kątem zadań wymagających niskiego opóźnienia i opłacalności. Obsługuje okno kontekstowe do 1 miliona tokenów i wyniki 80,1% na MMLU, 50,3% na GPQA i 9,8% w odniesieniu do kodowania Polyglot Polyglot, przekraczając wyniki GPT-4O Mini.

Te modele są dostępne wyłącznie przez API Openai, co daje deweloperom, aby zintegrować się złożonymi w zakresie aplikacji AI. Ceny modeli są następujące: GPT-4.1 przy 2 USD za milion tokenów wejściowych i 8 USD za milion tokenów produkcyjnych; GPT-4,1 mini na 0,40 USD za milion tokenów wejściowych i 1,60 USD za milion tokenów wyjściowych; oraz GPT-4,1 nano na 0,10 USD za milion tokenów wejściowych i 0,40 USD za milion tokenów wyjściowych. 

Ulepszone instrukcje obserwacyjne i zrozumienie długiego kontaktu

Openai koncentrowało się na poprawie zdolności modeli do przestrzegania instrukcji i zrozumienia wejść długotertowego. Modele GPT-4.1 zostały zaprojektowane tak, aby lepiej wykorzystać obszerne okna kontekstowe, obsługujące do 1 miliona tokenów i wykazują lepsze zrozumienie długiego kontaktu. Ulepszenia te sprawiają, że modele są bardziej skuteczne w zakresie zasilania agentów AI zdolnych do niezależnego wykonywania zadań w imieniu użytkowników, takich jak inżynieria oprogramowania, analiza dokumentów i obsługa klienta.

Według Openai, „Te ulepszenia instruktażu po niezawodności i długim kontekstu zrozumienia również sprawiają, że modele GPT-4.1 jest niezdolnie bardziej efektywne w agentach zasilających lub systemy, które mogą niezależnie realizować taski w zakresie użytkowników. Ograniczenia i rozważania modelu

Podczas gdy modele GPT-4.1 oferują znaczące postępy, OpenAI potwierdza pewne ograniczenia. Modele mogą być bardziej dosłowne niż poprzednie wersje, czasami wymagając bardziej szczegółowych i wyraźnych podpowiedzi od użytkowników. Ponadto dokładność modeli maleje wraz ze wzrostem liczby tokenów wejściowych; We własnych testach Openai dokładność spadła z około 84% z 8 000 tokenów do 50% z 1024 tokenami.

Openai zauważa również, że GPT-4.1 staje się mniej wiarygodny, bardziej wprowadzane tokeny, które musi przetworzyć, podkreślając znaczenie szybkiego inżynierii i zarządzania kontekstem w rozwoju aplikacji. W swoim oficjalnym poście firma stwierdza: „wczesni testerzy zauważyli, że GPT-4.1 może być bardziej dosłowny, dlatego zalecamy wyraźne i specyficzne w podpowiedzi.”

Dodatkowo model podglądu GPT-4.5 zostanie rozpakowany 14 lipca 2025 r., Co do szerszego przyjęcia GPT-4.1. Nowsze modele mają odcięcie wiedzy w czerwcu 2024 r., Dając programistom dostęp do bardziej aktualnych danych w porównaniu z wcześniejszymi wersjami.