Drejtori i Përgjithshëm i Openai Sam Altman ka sinjalizuar një rivlerësim të rëndësishëm të pikëpamjeve të tij për rregulloren e AI gjatë një seance të komitetit të tregtisë në Senat më 8 maj 2025. Ky pozicion në mënyrë të veçantë bie në kundërshtim me dëshminë e tij në maj 2023, ku ai kishte mbrojtur për krijimin e një agjensie të re federale për të licencuar dhe testuar AI të përparuar, duke e quajtur atë rekomandimin e tij ‘numër një’ për sigurimin e AI. Administrata, e cila mbron një kornizë rregullatore të’prekjes së dritës’për të nxitur inovacionin dhe për të mbajtur një avantazh konkurrues, veçanërisht kundër Kinës.
Implikimet e këtij strumbullari janë të konsiderueshme për të ardhmen e qeverisjes së AI. Si një zë kryesor në këtë fushë, perspektiva e rishikuar e Altman mund të ndikojë në politikëbërësit për të adoptuar një qasje më të dobishme, duke shpejtuar potencialisht vendosjen e teknologjive të përparuara të AI. Kjo vjen në një kohë kur aftësitë e AI po zgjerohen me shpejtësi, së bashku me shqetësimet në rritje nga kritikët dhe disa ligjvënës për dëmet ekzistuese dhe të mundshme shoqërore, siç janë paragjykimet në sistemet e AI, gjenerimi i jo-konsensual imazheve Ata duhet të jenë të parët.”, Debati vazhdon nëse vetë-rregullimi do të jetë i mjaftueshëm për të adresuar sfidat komplekse të paraqitura nga AI gjithnjë e më të fuqishme. [Përmbajtja e ngulitur]
Konteksti më i gjerë politik dhe i industrisë po inkuadron gjithnjë e më shumë zhvillimin e AI përmes prizmit të konkurrencës ndërkombëtare dhe sigurisë kombëtare. Senatori Ted Cruz (R-Texas), duke kryesuar seancën dëgjimore, e nënvizoi këtë duke deklaruar SH.B.A.”nuk mund të lejojë rregullimin, madje edhe llojin gjoja beninje, të mbytë inovacionin dhe birësim href=”https://www.techpolicy.press/transcript-sam-altman-testtifies-at-us-senate-hearing-on-i-competitivity/”target=”_ bosh”> Senati që dëgjon .
Ky ndjenjë ishte i bëri jehonë nga Zëvendës Presidenti Jd Vance në një Samitin e Parisit , i cili deklaroi se”e ardhmja e AI nuk po shkon për të fituar nga Hand-Wring”. Kjo qasje shënon një largim nga strategjia e administratës Biden, e cila përfshinte një urdhër ekzekutiv që detyronte testet e sigurisë së AI, të shfuqizuara më vonë nga Presidenti Trump. Administrata Trump që nga ajo kohë ka lëshuar sugjeroi në postin e Uashington Switch,”Devijimi i përqendrimit nga dëmet e menjëhershme dhe përdorimi i shqetësimeve të sigurisë kombëtare për të anash rregullimin e fortë. Jan Leike, ish bashkë-udhëheqës i ekipit të superalizimit të Openai, dha dorëheqjen në maj 2024, duke deklaruar publikisht se”kultura e sigurisë dhe proceset kanë marrë një prapambetje për produkte me shkëlqim”, siç raportoi Winbuzzer. Kjo pasoi shpërbërjen e ekipit të superforizimit, i cili u krijua në korrik 2023 për t’u përqëndruar në rreziqet afatgjata të AI. Në përgjigje të këtyre dinamikave të brendshme, Sam Altman pranoi në maj të vitit 2024 se Openai kishte”shumë më tepër për të bërë”në lidhje me sigurinë. Kjo veprim erdhi menjëherë pasi u shfaqën raportet se Openai kishte zvogëluar ndjeshëm kohën e testimit të sigurisë për modelet e saj të reja, si O3, nga muaj në nganjëherë nën një javë, duke nxitur shqetësime nga testuesit, njëri prej të cilëve e përshkroi qasjen si”të pamatur,”. sfidë Ndërsa Openai ka qasje të hollësishme teknike si”shtrirja diskutuese”për të futur arsyetimin e sigurisë në modelet e saj, dhe ka deklaruar hulumtimin e tij për bindjen e AI synon të sigurojë që AI të mos bëhet shumë i efektshëm, siç janë të përfshira në studimet e bindjes së AI të Openai. Ish-stafi i Openai madje ka akuzuar Altman se i rezistoi rregullimit efektiv të AI në favor të politikave që i shërbejnë interesave të biznesit të kompanisë.
Laboratorët e tjerë të AI po lundrojnë gjithashtu këtë terren kompleks. Antropik, për shembull, zbuloi një kornizë interpretimi në Mars 2025 për ta bërë arsyetimin e tij Claude AI më transparent, dhe gjithashtu paraqiti rekomandime për Shtëpinë e Bardhë duke kërkuar testimin e sigurisë kombëtare të sistemeve AI. Kjo nxjerr në pah kompanitë e ndërlikuara të Dance AI kryejnë midis avokimit për lloje të caktuara të qeverisjes dhe ruajtjes së fleksibilitetit operacional. Për më tepër, dobësitë e reja të sigurisë në mjetet e përdorura gjerësisht të AI, si kopilot e Microsoft për SharePoint, vazhdojnë të shfaqen, duke theksuar rreziqet e menjëhershme edhe kur thirrjet për rregullore më të lehta intensifikohen. Mbikëqyrja në Inteligjencën e Përgjithshme”duket veçanërisht e spikatur pasi ai tani mbron për më shumë liri të industrisë. Thirrja e tij e mëparshme për një agjenci licencimi dhe testimi i para-lëshimit qëndron në kontrast të ashpër me theksin e tij aktual në shmangien e rregulloreve që mund të ‘mbyt inovacionin.” ka përshkruar mbështetjen ushtarake të AI si një”imperativ moral.”Washington Post se”Nëse ka një dyqan sanduiç përtej rrugës nga Openai ose Antropic ose një nga kompanitë e tjera, përpara se të mund të shesin edhe një sanduiç, ata duhet të plotësojnë standardet e sigurisë për kuzhinën e tyre. Nëse [kompanitë e AI] duan të lëshojnë super inteligjencën nesër, ata janë të lirë ta bëjnë këtë.”