A

Openai úgy tűnik, hogy arra készül, hogy jelentős új akadályt vezessen be azoknak a fejlesztőknek, akik hozzáférést akarnak a legerősebb jövőbeli AI modellekhez API-n keresztül: potenciális követelmény a szervezetek számára az identitásellenőrzésen keresztül, a kormány által kiadott IDS segítségével. Target=”_ blank”> Openai támogatási oldal A múlt héten írja le a „Verified szervezet” folyamatot, amelyet a vállalat a visszaélés elleni küzdelemhez és a felelősségteljes AI telepítés előmozdításához és előmozdításához szükséges. Az Openai azt javasolja, hogy ez egy „kicsi kisebbséget” célozzon meg, amely szándékosan megsérti a használati politikáját, és célja az AI nem biztonságos használatának enyhítése, miközben folytatja a fejlett modelleket a szélesebb körű fejlesztő közösség rendelkezésére. kérdések feltevése a konkrét kritériumokkal kapcsolatban. Aggodalomra ad okot a hozzáadott operatív súrlódás, a kormányzati azonosítás benyújtásának adatvédelmi szempontjai, a felhasználók potenciális kizárása az OpenI-listák listájának a támogatott API-országok listáján, és szélesebb körű szkepticizmussal, hogy az elsődleges motiváció az elsődleges motiváció, és az elsődleges motiváció, és az elsődleges motiváció, az elsődleges motiváció, és az elsődleges motiváció, és az elsődleges motiváció, az elsődleges motiváció, és az elsődleges motiváció az elsődleges motiváció. A platformhoz való hozzáférés ellenőrzése, különös tekintettel a múltbeli tevékenységekre, például a kínai API-blokkra, vagy a DeepSeek és mások állítólagos adatokkal való visszaélésével kapcsolatos vizsgálatok. A politika feltárja. Az új indítások csak ezen a héten történhetnek, beleértve a GPT-4.1-et, a multimodális GPT-4O modell frissítésének, valamint az O3, O4-Mini és O4-Mini-High-i speciális érvelési modelleknek. A „tervváltás” bejelentésével Altman prioritást élvez az O3 és O4-Mini modellek kiadását „valószínűleg néhány hét múlva”, miközben a nagyon várt GPT-5 debütálását „néhány hónappal” tolta vissza. A GPT-5 sokkal jobb, mint eredetileg [t].”Ez megfordította a 2025 februárjától az O3 képességeinek potenciálisan összehajtogatására irányuló tervet a GPT-5-re. short of specialized models on certain logic-intensive benchmarks, despite Altman describing it as feeling like talking to a thoughtful person rather than a reasoning Powerhouse. Azonban az Openai kijelentette, hogy az azonosító igazolási indoka hirtelen ellentétben áll azzal a jelentéssel, hogy ezeknek a modelleknek a biztonsági értékelési periódusait drasztikusan lerövidítették. Ez a gyorsulás állítólag riasztotta az értékelési folyamatban részt vevő néhányat.

A specifikus tesztelési módszerek szintén tűz alatt állnak. A kritikusok rámutatnak a potenciális tesztelés közzétett eredményeinek hiányára a finomhangolással-a legújabb, legmegfelelőbb modelleken, mint például az O1 vagy az O3-Mini, a veszélyes kialakuló képességek szondájához szükséges speciális adatokkal kapcsolatos továbbképzés. href=”https://aisafety.substack.com/p/customized-models-catastrophic-risks”Target=”_ üres”> egy blogbejegyzésben , azt állította, hogy ez a laboratóriumokat a veszélyek alábecsüléséhez vezetheti, A pénzügyi idők elmondása , „Az Openai és a többi AI társaság alulbecsülik a legrosszabb kockázatokat.” A köztes modell verziók vagy ellenőrző pontok tesztelésével kapcsolatos aggodalmakat is felvetették a nyilvánosság számára szállított végleges kód helyett. „Rossz gyakorlat egy olyan modell kiadása, amely különbözik az általad kiértékeltől.”-mondta egy volt műszaki alkalmazott, aki megemlítette az Ft. > Belső feszültségek és az iparág háttere

Ez a látszólagos súrlódás a fejlődési sebesség és a biztonsági óvatosság között nem új terület az Openai számára. A belső nézeteltéréseket Jan Leike 2024. májusában való távozása aláhúzta, majd a hosszú távú kockázat-központú szuperalatív csoport együttes vezetésével, aki nyilvánosan kijelentette, hogy „a biztonsági kultúra és a folyamatok hátulját vitték a fényes termékekhez.”

Egy másik dimenzió hozzáadása a társaság belső dinamikájához. A rövid azt állítja, hogy az Openai a korlátozott profitszerkezet felé történő elmozdulása eltér az alapító nonprofit küldetésétől, amely potenciálisan befolyásolja a biztonsági kötelezettségvállalásokat és az erőforrás-elosztást. Biztonsági struktúra. Ez a születő szabályozás hátterében fordul elő, mint például az EU AI-törvénye, a modell sebezhetőségének és a börtönbördési technikáknak a folyamatos felfedezései, valamint az Openai saját akkumulátor kapacitása. Stabilitás az új bevezetések során.