A

Openai vezérigazgatója, Sam Altman jelezte az AI-szabályozással kapcsolatos véleményének jelentős újrakalibrálását a szenátus Kereskedelmi Bizottságának 2025. május 8-i tárgyalása során. Ez a pozíció nevezetesen ellentétben áll a 2023. májusi tanúvallomásaival, ahol egy új szövetségi ügynökség létrehozását támogatta a fejlett AI engedélyezésére és tesztelésére, és azt az első számú ajánlásnak nevezi az AI biztonságának biztosítására. Az innováció elősegítése és a verseny előnyeinek fenntartása érdekében, különösen Kínával szembeni „könnyű tapintású” szabályozási kerethez. A pivot jelentős az AI kormányzás jövője szempontjából. A terület vezető hangjaként Altman felülvizsgált perspektívája befolyásolhatja a politikai döntéshozókat, hogy alkalmazzanak egy több kezű megközelítést, amely potenciálisan felgyorsítja a fejlett AI technológiák telepítését. This comes at a time when the capabilities of AI are rapidly expanding, alongside growing concerns from critics and some lawmakers about existing and potential societal harms, such as bias in AI systems, the generation of nonconsensual imagery, and the potential for AI to be used in disinformation campaigns.

While Altman now suggests that “I think standards can help increase the rate of innovation, but it’s important that the industry figure out what Először kell lenniük.”A vita folytatódik arról, hogy az önszabályozás elegendő-e az egyre erősebb AI által okozott komplex kihívások kezelésére. [Beágyazott tartalom]

A szélesebb politikai és ipari kontextus egyre inkább az AI fejlesztését a nemzetközi verseny és a nemzetbiztonság prizmáján keresztül alakítja ki. Ted Cruz szenátor (R-Texas), a tárgyalás elnöke, aláhúzta ezt azáltal, hogy kijelentette, hogy az Egyesült Államok „nem engedheti meg a szabályozást, még az állítólag jóindulatú fajtát is, hogy megfojtja az innovációt és az örökbefogadást”, és bejelentette, hogy bevezet egy törvényjavaslat bevezetését, amely „szabályozó homokozó csiszolódobozt készít az AI-hez”, a A szenátus meghallgatása . href=”https://lk.usembassy.gov/remarks-by-vice-president-vece-at-the-articial-intelligence-ai-action-summit/”Target=”_ üres”> JD Vance alelnök visszhangzott egy Párizsi Összegzésnél. Ez a megközelítés eltérést jelent a Biden adminisztráció stratégiájától, amely magában foglalta az AI biztonsági teszteket kötelező végrehajtó végzési végzést, amelyet később Trump elnök hatályon kívül helyez. A Trump adminisztráció azóta új útmutatást célzó, és a Promautrications and Promautions and Promautions and Promautrications és a Promautrications and Promautions and Promautrications és a Promautrications and Promautions és a Promautrications-t. A Wilmerhale részletei. Kifejezetten az Európai Unió átfogó EU AI-jét „katasztrofálisnak” írta le. A fejlődő álláspont tükröződik a fő AI laboratóriumok politikai változásaiban is; Például a Google DeepMind 2025 februárjában egy régóta tartott ígéretet sújtott a fegyverek vagy megfigyelés AI fejlesztése ellen, és az Openai, a Meta és az Antropic hasonlóan frissítette a katonai projektekkel kapcsolatos politikájukat. Rumman Chowdhury, az AI korábbi állami minisztériumi megbízottja, javasolt a „bace”-nek a „BAIT”-ot, hogy a „BAIT”-ot a „BAIT-ra”, hogy a műszaki iparban az Evinentical Ai Risks-re fókuszáljon. Switch,”A fókusz elterelése az azonnali károktól és a nemzetbiztonsági aggályok kihasználásaig a robusztus szabályozás felé. Jan Leike, az OpenAi SuperAlignment csapatának korábbi társvezetője, 2024 májusában lemondott, nyilvánosan kijelentve, hogy „a biztonsági kultúra és a folyamatok hátsó ülést vettek a fényes termékekhez”, ahogy a Winbuzzer számolt be. Ez követte a SuperAlignment csapat feloszlatását, amelyet 2023 júliusában hoztak létre, hogy a hosszú távú AI kockázatokra összpontosítsanak. Ezekre a belső dinamikára válaszul Sam Altman 2024 májusában elismerte, hogy az OpenAI-nak „még sok tennivalója” volt a biztonsággal kapcsolatban. Ez a lépés nem sokkal azután történt, hogy a jelentések kiderültek, hogy az Openai jelentősen csökkentette az új modellek, például az O3 biztonsági tesztelési idejét, hónapokig egy hétig, és a tesztelők aggodalmait váltja ki, akik közül az egyik a megközelítést „gondatlannak” írta le. Míg az Openai részletes műszaki megközelítéseket alkalmaz, mint például a „tanácskozási igazítás”, hogy beágyazódjon a biztonsági érvelésbe modelleibe, és kijelentette, hogy kutatása az AI meggyőződés céljából, hogy az AI ne váljon túl hatékonyvá, amint azt az Openai AI meggyőző tanulmányai tárgyalják, a társaság fellépései, például Altman 2024 szeptemberi lemondása az Openai Biztonsági és Biztonsági Bizottságából. Az Openai volt munkatársai azt is vádolták Altmannak, hogy ellenállt a hatékony AI-szabályozásnak a társaság üzleti érdekeit szolgáló politikák mellett. Az antropikus például egy értelmezhetőségi keretet mutatott be 2025 márciusában, hogy Claude AI érvelése átláthatóbbá tegye, és ajánlásokat nyújtott be a Fehér Háznak, sürgetve az AI rendszerek nemzetbiztonsági tesztelését. Ez kiemeli a bonyolult tánc AI vállalatait, hogy bizonyos típusú irányítás és az operatív rugalmasság fenntartása között járjon el. Ezenkívül a széles körben használt AI eszközök új biztonsági rései, mint például a Microsoft Copilot for SharePoint, továbbra is megjelennek, kiemelve az azonnali kockázatokat, még akkor is, ha a könnyebb szabályozás felhívása fokozódik. Az általános intelligencia emberfelettisége”különösen kiemelkedőnek tűnik, mivel most az ipari szabadságot támogatja. Korábbi felhívása egy engedélyezési ügynökségre és a kiadás előtti tesztelésre éles ellentétben áll azzal a jelenlegi hangsúlyozással, hogy elkerülje a „innovációt megfojthatja”. Az AI támogatás mint „erkölcsi kötelező”. Tegye közzé, hogy „ha van egy szendvicsbolt az utca túloldalán az Openai-tól vagy az Antropic-tól, vagy a többi társaságtól, mielőtt akár egy szendvicset is eladhatnának, akkor meg kell felelniük a konyhájuk biztonsági előírásainak. Ha az [AI vállalatok] holnap el akarják engedni a Super Intelligence-t, akkor szabadon megtehetik.”

Ahogy az„ intelligencia kor “kibontakozik, az innováció és a közbiztonság kiegyensúlyozása és az egyre erősebb AI irányítási kereteinek meghatározása, kétségtelenül a globális diskurzus élvonalában marad.