Az Openai hegyes kérdésekkel szembesül a biztonsági protokolljaival kapcsolatban a Financial Times jelentése, amelyet a társaság, a társaság, a $ 300, a”_ blank”> Financial Times jelentése. A legújabb AI modellek értékelési periódusai.

A vállalat működését ismerő nyolc forrásra hivatkozva a jelentés kimondja, hogy a korábban hónapok alatti időpontok tesztelése mindössze napokra tömörített. Ez a gyorsulás akkor következik be, amikor az OpenAi felkészül egy küszöbön álló indításra, esetleg a jövő héten, új modellek, beleértve az érvelés-központú O3-t is, és egy héttel kevesebb harmadik fél és belső tesztelőket hagy a kritikus biztonsági értékelésekhez. A sebesség azonban riasztást váltott ki a modellek értékelésének feladata között. „Alaposabb biztonsági tesztelésünk volt, amikor a [technológia] kevésbé volt fontos”-mondta egy olyan személy, aki jelenleg a közelgő O3 modellt értékelte a Financial Times-nak. A jelenlegi megközelítést úgy jellemezte, mint „gondatlan”, hozzátette: „De mivel nagyobb a kereslet, gyorsabban akarják. Remélem, hogy ez nem katasztrofális téves lépés, de ez gondatlan. Ez a katasztrófa receptje.”

Egy másik teszter, amely a GPT-4 értékelésével 2023-ban, az áramlást csak az áramlást kapja, és csak az áramlást jelentette, hogy az áramlást csak az áramlást kapja, és az áramlást csak az áramlást kapja, és az áramlást csak az áramlást kapja, és az áramlást csak az áramlási eljárással foglalkozik, és az áramlást csak az áramlási eljárással foglalkozik, és az áramlást csak a GPT-4 értékeléssel veszik figyelembe, és az áramlást csak a GPT-4 értékeléssel veszik figyelembe, és az áramlást csak a GPT-4 értékeléssel veszik figyelembe, és a veszélyes hibákat említik, és a veszélyes hibákat említik, és a veszélyes hibákat említik, és a veszélyes hibákat említik, és a veszélyes hibákat említik.”Egyáltalán nem prioritássá teszik a közbiztonságot.”Daniel Kokotajlo, az Openai volt kutatója kiemelte a környezetet, amely lehetővé teszi ezt a rohanást: „Nincs olyan szabályozás, amely szerint a [vállalatoknak] a nyilvánosság tájékoztatást kell tartaniuk az összes ijesztő képességről… és szintén nagy nyomás alatt állnak egymás versenyezésére, így nem fogják abbahagyni a képességeket.”Sam Altman vezérigazgató április 4-én megerősítette a „tervek cseréjét”, kijelentve, hogy a vállalat kiadja az O3 és az O4-Mini érvelési modelleket „valószínűleg néhány hét múlva”, és a várt GPT-5 indítást „néhány hónappal” tolja vissza. Altman elmagyarázta, hogy a döntés részben az „érvelési modellek és a csevegés/befejezési modellek” című részéről szól, és hozzáadja az X-en keresztül, hogy „izgatottak vagyunk az O3-ból származó teljesítményről”, és hogy a késleltetés lehetővé tenné a GPT-5 számára, hogy „sokkal jobb, mint az eredetileg [t]. `o4-mini` és` o4-mini-high` egy chatgpt webes frissítésben. A jelentések egyidejűleg egy frissített multimodális modellt, amelyet ideiglenesen GPT-4.1-nek neveznek, szintén közel állnak a kiadáshoz. A kritikusok megkérdőjelezik a vállalat elkötelezettségét a visszaélés potenciáljának, például a bioapon létrehozásának elősegítése érdekében, finomhangolás révén. Ez a folyamat magában foglalja a modellek képzését a speciális adatkészletekre (például a virológiára) annak megállapítására, hogy kidolgozza-e veszélyes képességeket. Adler szerint, akinek a véleménye részletes volt. azt jelentheti, hogy az Openai és a többi AI vállalat alábecsüli modelljeik legrosszabb kockázatait.”Egy másik kritika magában foglalja a korábbi modell verziók, vagy a „ellenőrző pontok” tesztelését, nem pedig a nyilvánosság számára kiadott végleges kódot. „Rossz gyakorlat egy olyan modell kiadása, amely különbözik az általad kiértékeltől”-mondta az Openai volt műszaki alkalmazottja az Ft. A társaság kijelentette, hogy az ellenőrző pontok „alapvetően megegyeznek” a végső kiadásokkal, és hogy a modelleket alaposan tesztelik, különösen a katasztrofális kockázatok esetén. Johannes Heidecke, az Openai biztonsági rendszerek vezetője azt állította: „Jó egyensúlyunk van arról, hogy milyen gyorsan mozogunk és mennyire vagyunk alaposan.”

A cég nemrégiben elindította annak Openai Pioneers program A „domainspecifikus” értékelések és a modell optimalizálásának indítása a megerősítő finomhangolás (RFT) -egy technika speciális„ szakértői modellek “létrehozásához a keskeny taskokhoz. Ez a kezdeményezés azonban különbözik az alapvető, kiadás előtti biztonsági értékelésektől, amelyek állítólag lerövidülnek. 2024 májusában Jan Leike, a vállalat szuperértékű csoportjának a hosszú távú AI kockázatokra összpontosító csoportjának vezetõje, nyilvánosan kijelentve, hogy az utóbbi években: „A biztonsági kultúra és folyamatok hátulját vitték a fényes termékekhez”. Indulása és az antropikus későbbi csatlakozása mély nézeteltéréseket jelez az erőforrásokkal és a hosszú távú AI biztonsági kutatásokkal kapcsolatos prioritásokkal kapcsolatban. Nevezetesen, az Openai néhány nappal korábban bejelentette egy testület által vezetett biztonsági és biztonsági bizottság megalakulását, amelynek feladata egy 90 napos időszak, amelynek felmérése és fejlesztése, valamint ajánlások megfogalmazása, valamint az indokoltok az ipar riválisai hangsúlyozzák az átláthatóságot és a kormányzást

Openai jelentett gyorsulási ellentmondásai a legújabb nyilvános állásfoglalásokkal. Március 28-án az antropikus részletezte értelmezhetőségi keretét, egy „AI mikroszkópot” Dictionary Learning felhasználásával. A szótár tanulása megkísérli megfordítani a modell belső számításait, és az érthető fogalmakhoz való leképezést. Az antropikus ezt elengedhetetlennek tartotta a bizalomhoz. Hasonlóképpen, a Google DeepMind április 3-án javasolta a globális AGI biztonsági keretet, amely a nemzetközi felügyelet támogatását és a fejlett AI kockázatok azonnali kezelését támogatja. Ez a javaslat a DeepMind saját AI biztonsági és igazítási szervezetének kialakulását követte 2024-ben. Az antropikus, miközben március elején szorgalmazta az erősebb kormányzati AI-szabályokat, csendesen eltávolította a saját korábbi önkéntes biztonsági kötelezettségvállalásait egy 2023-as Fehér Ház kezdeményezés alapján, amely szemlélteti a nyilvános pozicionálás és az operatív nyomás közötti feszültséget. Maga az Openai az Egyesült Királyság és az Egyesült Államok kormányaival folytatott önkéntes kötelezettségvállalások részét képezi a külső biztonsági teszteléshez való hozzáféréssel kapcsolatban, amint azt az FT jelentésben említik. A robusztus tesztelés szükségességét hangsúlyozza a folyamatban lévő sebezhetőség-felfedezések, például a Google Gemini február memóriájában található „késleltetett eszköz-meghívás”, vagy a több vezető modellt érintő tartós jailbreaking technikák. Az Openai gyors fejlődése az Altman potenciális kapacitási kihívások elismerése ellenére folytatódik.