A

Openai hivatalosan elindította a GPT-4.1 modellcsaládját, három új verziót vezetve-a GPT-4.1, a GPT-4.1 MINI és a GPT-4.1 Nano-, amelynek célja a legmagasabb szintű teljesítmény egyensúlya a rugalmas költségekkel és sebességgel. Az elődeinek felülmúlására épített GPT-4.1 sorozat javítja az alapvető képességeket, mint például a kódgenerálás, az alábbi oktatás és a hosszú kontextus érvelés, miközben alacsonyabb késést és következetesebb eszközhasználatot biztosít.

Ellentétben a GPT-4-től és a GPT-4O-val, amely a POER CHATGPT Pro felhasználók számára, az új modellek kizárólag az OpenAI API-n keresztül érhetők el-a vállalat folyamatos összpontosítását a vállalati és fejlesztői integrációra, nem pedig a fogyasztókkal szembeni chatbot használatra. Az új modellek három különálló teljesítményszintre történő szegmentálásával az Openai lehetővé teszi az API-felhasználók számára a méretarányos méret és a költségvetés alapján történő méretarányt. A tetején a szokásos GPT-4.1 modellt a legbonyolultabb alkalmazásokhoz tervezték, és ennek megfelelően ára: 2 dollár/millió bemeneti token és 8 millió dolláros output token.

“>”>”>”>”>”>”> A

GPT-4.1 MINI egy középső földi lehetőség, amely közel paritást kínál az intelligencia referenciaértékeiben, amelyek sokkal alacsonyabb késéssel rendelkeznek-0,40 dollár/millió bemeneti token és 1,60 dollár/millió output áron. Könnyű feladatok és valós idejű felhasználási esetek esetén a GPT-4,1 Nano még a legköltséghatékonyabb, mindössze 0,10 dollár/millió bemeneti token és 0,40 dollár/millió output token. Ezek a kiegészítések tükrözik az Openai egyre növekvő hangsúlyát, hogy a generatív AI-t hozzáférhetővé tegyék a felhasználási esetek szélesebb körében-a nagy teljesítményű ügynöki munkafolyamatoktól a beágyazott eszközökig a fogyasztói alkalmazásokban.

Nevezetesen, mindhárom modell ugyanazzal a tudásvágással (2024. június), és úgy hangolták, hogy determinisztikusabb, formátumkövető kimeneteket biztosítson, mint a korábbi generációk-csökkentik a hallucinációkat és javítják az integrációs megbízhatóságot a termelési környezetben. Csak a kutatáshoz és a prototípus készítéséhez, hanem a magas méretű telepítéshez a kereskedelmi szoftverek, a SAAS platformok és az autonóm ügynökök rendszereiben. Mivel a GPT-4.1-et a hamarosan meg nem határozott GPT-4.5 előnézet (2025. július 14-ig tartó) utódjaként helyezik el, az Openai világossá teszi, hogy ez a generáció várhatóan hordozza számos kereskedelmi partnerének működési súlyát. elődeik feletti fejlődés. A standard GPT-4,1 modell 54,6%-os pontszámot ért el a Swe-Bench ellenőrzött benchmark , jelezve egy 21,4%-os abszolút javulást a GPT-4O-hoz képest a GPT-4O felett.

Az alábbi utasításban a GPT-4,1 38,3%-ot ért el a Scale MultIChALLEGE Benchmark , tükrözve a GPT-4O-n keresztüli 10,5%-os abszolút növekedést.

“>”>”>”>”>”>”>

Ezenkívül a GPT-4.1 új korszerű eredményt állítson be a video-mme referenciaérték A multimodális hosszú kontextus megértéshez, a „hosszú, szubtszulusok nélküli”-es promóciókért, a 6.7%-os adventrációhoz, a 6.7%-os. A GPT-4O.

Openai két egyszerűsített verziót is bevezetett: GPT-4.1 MINI és GPT-4.1 Nano. A GPT-4.1 MINI csökkentett késést és költségeket kínál, elérve a késés csaknem felét, és 83%-os költségcsökkentést eredményez a GPT-4O-hoz képest, miközben megegyezik vagy meghaladja a GPT-4O teljesítményét az intelligencia értékelésében.

“>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”> A

GPT-4.1 Nano, az Openai eddigi legkisebb és leggyorsabb modellje, optimalizálva van az alacsony késleltetéshez és a költséghatékonysághoz. Támogatja a legfeljebb 1 millió token kontextusablakot, és 80,1%-ot eredményez az MMLU-n, 50,3% a GPQA-n és 9,8% aerider poliglot kódoló referenciaértékeknél, meghaladva a GPT-4O teljesítményét. A modellek ára a következő: GPT-4,1, 2 dollár/millió bemeneti token és 8 millió dolláros output token; GPT-4,1 mini 0,40 dollár/millió bemeneti token és 1,60 dollár/millió output token; és a GPT-4,1 nano 0,10 dollár/millió bemeneti token és 0,40 dollár/millió output token. 

“>”>”>”>”>”>”>”>”>”>”>

A továbbfejlesztett utasítások követése és a hosszú kontextus megértése

Az Openai a modellek javítására összpontosított az utasítások követésére és a hosszú kontextus-bemenetek megértésére. A GPT-4.1 modelleket úgy tervezték, hogy jobban kihasználják a kiterjedt kontextusú ablakokat, akár 1 millió tokent támogatva, és javított hosszú kontextusos megértést mutatnak. Ezek a fejlesztések a modelleket hatékonyabbá teszik az AI Agents táplálására, hogy képesek egymástól függetlenül elvégezni a felhasználók nevében, mint például a szoftverfejlesztés, a dokumentumelemzés és az ügyfélszolgálat. “>”>”>”>”>”>”>”>”>”>”>

modellkorlátozások és megfontolások

Míg a GPT-4.1 modellek értelmes előrelépéseket kínálnak, az OpenAi elismeri bizonyos korlátozásokat. A modellek szó szerintibbek lehetnek, mint az előző verziók, néha a felhasználók konkrétabb és kifejezettebb kéréseit igénylik. Ezenkívül a modellek pontossága csökken, amikor a bemeneti tokenek száma növekszik; Az Openai saját tesztjeiben a pontosság körülbelül 84%-ról esett vissza 8000 tokennel 50%-ra, 1 024 tokennel. Hivatalos üzenetében a vállalat kijelenti: „A korai tesztelők megjegyezték, hogy a GPT-4.1 lehetõbb lehet, ezért azt javasoljuk, hogy kifejezetten és konkrétan álljanak fel.”

Ezenkívül a GPT-4.5 előnézeti modellt 2025. július 14-én elavulják, a GPT-4.1 szélesebb körű elfogadásához. Az újabb modellek 2024. júniusban tudást kapnak, így a fejlesztőknek a korábbi verziókhoz képest több aktuális adathoz férhetnek hozzá.

Categories: IT Info