Google po bën presion për veprim global mbi Inteligjencën e Përgjithshme Artificiale (AGI), duke theksuar urgjencën e krijimit të masave mbrojtëse para se këto sisteme të përparojnë përtej kontrollit njerëzor. Në një postim në blog të botuar dje nga DeepMind, kompania zbuloi një kornizë të re ndërkombëtare të sigurisë së ndërtuar rreth tre shtyllave kryesore: forcimin e hulumtimeve teknike, zbatimin e sistemeve të paralajmërimit të hershëm, dhe nxitja e bashkëpunimit ndërkombëtar përmes organeve të qeverisjes. Kompania thekson se nevoja për masa sigurie nuk është një shqetësim i largët, por një sfidë e menjëhershme.”[Një] elementi kryesor i strategjisë sonë është identifikimi dhe kufizimi i qasjes në aftësi të rrezikshme që mund të keqpërdoren, përfshirë ato që mundësojnë sulme kiberne Në një kohë kur zhvillimi i AGI po përshpejtohet. DeepMind po e inkuadron AGI jo vetëm si një mundësi të ardhshme, por si një realitet të afërt, duke nënvizuar domosdoshmërinë e masave paraprake sot. Traktatet
Përtej risive teknike, DeepMind po mbron për ndryshime strukturore që përfshijnë globin. Kompania sugjeron krijimin e një organi ndërkombëtar që do të vlerësonte sistemet AGI, të ngjashme me marrëveshjet e mos-përhapjes bërthamore. Kjo organizatë do të ndihmojë në menaxhimin e rreziqeve globale dhe të vendosë një kornizë të standardizuar për zhvillimin dhe testimin e AGI. Në fillim të vitit 2024, kompania formoi një organizatë të re të sigurisë dhe shtrirjes së AI, duke kombinuar disa nga ekipet e saj ekzistuese ndërsa prezantonte talentin e ri të përqendruar posaçërisht në rreziqet AGI. Ky fokus i brendshëm bazohet në angazhimin më të gjerë të Google për të siguruar zhvillimin e përgjegjshëm të AI-së. Bashkimi hapi rrugën për zhvillimin e familjes Model Gemini, e cila pati azhurnime të rëndësishme me lëshimin e fundit të Gemini 2.5 Pro Experimental-modeli i tij i fundit multimodal AI i aftë për arsyetim të përparuar. Kjo përparim sinjalizon aftësitë në rritje të DeepMind, si dhe përqendrimin e tij në sigurimin e sistemeve të tilla të fuqishme janë vendosur me përgjegjësi. Ajo arrin ndërsa laboratorët e tjerë të mëdhenj të AI fillojnë të ndërmarrin hapa të ngjashëm. Antropik, një nga konkurrentët më të rëndësishëm të DeepMind, lëshoi një paralajmërim të ngjashëm në nëntor 2024, duke u bërë thirrje rregullatorëve që të ndërmarrin veprime të shpejta brenda 18 muajve për të parandaluar zhvillimin e arratisur të AI. Antropik gjithashtu ka punuar me Administratën Kombëtare të Sigurisë Bërthamore të Departamentit të Energjisë, duke ekzekutuar ushtrime të ekipit të kuq për të provuar modelet e tij Claude në mjediset e sigurisë së lartë. Kjo iniciativë thekson përqendrimin në rritje në sigurinë e AI, veçanërisht në kontekstet ku AI mund të ndikojë në sigurinë kombëtare. Në shkurt të vitit 2025, kompania njoftoi një ndryshim në strategjinë e saj të AI me kornizën Frontier AI, e cila i ndan modelet në kategoritë”me rrezik të lartë”dhe”me rrezik kritik”. Meta shpjegoi se modelet me rrezik kritik nuk do të lëshoheshin më publikisht pa mbrojtje të rrepta në vend. Meta theksoi se qëllimi i saj është të minimizojë rreziqet katastrofike që lidhen me këto modele. Ndërsa më shumë kompani rivlerësojnë strategjitë e tyre, propozimi i DeepMind përshtatet në një model më të madh të kujdesit ndërsa industria grumbullohet me të ardhmen e AGI. Në shkurt antropik nisi klasifikuesin kushtetues, një sistem i jashtëm filtrimi i krijuar për të parandaluar nxitje kundërshtar dhe rezultate të dëmshme nga modelet e tij të AI. Testet treguan se klasifikuesi uli normat e suksesit në burg nga 86% në vetëm 4.4%. Asnjë nga pjesëmarrësit nuk arriti ta prishë atë plotësisht, duke nënvizuar sofistikimin në rritje të mjeteve të dizajnuara për të përmbajtur sisteme AI. Duke analizuar aktivizimet nervore, mund të gjurmojë se si modeli përpunon informacionin dhe të zbulojë sjellje potencialisht të dëmshme. Paraqitur në dhjetor 2024, Clio analizon miliona biseda me Claude për të zbuluar modelet e keqpërdorimit. Sistemi i jep përparësi privatësisë duke anonimizuar bisedat para se t’i përpunojë ato. Kjo qasje proaktive për të monitoruar sjelljen e AI përputhet me theksin e DeepMind në nevojën për mbikëqyrje të vazhdueshme të sigurisë pasi sistemet e AI rriten më të sofistikuara. Akti i AI i Bashkimit Evropian, i cili hyri në fuqi më 2 shkurt, ndalon disa sisteme të AI që konsiderohen se paraqesin”rreziqe të papranueshme”dhe imponon kërkesa të rrepta transparence për ato që konsiderohen me rrezik të lartë. Kompanitë si Openai dhe Meta janë angazhuar publikisht për të përmbushur këto kërkesa, megjithëse shumë duhet të jenë ende në përputhje me plotësisht. Komisioni Evropian ka treguar tashmë që mosrespektimi mund të rezultojë në gjobë të mëdha-deri në 6% të të ardhurave globale të një kompanie për shkelje. Sidoqoftë, siç raportohet nga TechCrunch, Antropic në heshtje mbështeti disa angazhime të sigurisë që bëri në ditët e para të administratës Biden, duke ngritur pyetje në lidhje me konsistencën e përpjekjeve të vetë-rregullimit të industrisë. Kjo sfond vendos fazën për thirrjen e DeepMind për qeverisje më të fortë. Kompanitë harduerike po luajnë gjithashtu një rol në ndërtimin e infrastrukturës së sigurisë së AI. NVIDIA, për shembull, prezantoi Guardrails Nemo në Janar 2025, një grup mikroservizionesh të dizajnuara për të siguruar masa mbrojtëse në kohë reale kundër sjelljeve të dëmshme të AI. Mjetet përfshijnë filtrat e sigurisë së përmbajtjes, zbulimin e jailbreak dhe kontrollin e temave, të gjitha të dizajnuara për të punuar në të njëjtën kohë me modelet ekzistuese për të siguruar që ato të qëndrojnë në përputhje me protokollet e sigurisë. Kari Briski, nënkryetar i modeleve të ndërmarrjeve AI në NVIDIA, vuri në dukje se këto sisteme lejojnë bizneset të”sigurojnë modelet e tyre kundër rezultateve të dëmshme”duke ruajtur performancën me latencë të ulët. Duke integruar këto teknologji, NVIDIA po pozicionohet vetë si një lojtar kryesor në sigurinë e ardhshme të AI. Ndërsa korniza e DeepMind mbron për një strukturë të qeverisjes globale, është e qartë se rruga për të siguruar AI do të kërkojë veprim të bashkërenduar si nga zhvilluesit ashtu edhe nga ofruesit e pajisjeve.