A

A Google a mesterséges általános intelligencia (AGI) globális fellépésére törekszik, hangsúlyozva a biztosítékok létrehozásának sürgősségét, mielőtt ezek a rendszerek az emberi ellenőrzésen kívül esnek. A DeepMind által tegnap közzétett blogbejegyzésben a vállalat egy új nemzetközi biztonsági keretet mutatott be, amely három kulcsfontosságú oszlop körül épült: a műszaki kutatások támogatása, a korai figyelmeztető rendszerek végrehajtása és a nemzetközi együttműködés előmozdítása az irányítási testületek révén. A társaság hangsúlyozza, hogy a biztonsági intézkedések szükségessége nem távoli aggodalom, hanem azonnali kihívás. „Stratégiánk kulcsfontosságú eleme a visszaélhető veszélyes képességekhez való hozzáférés azonosítása és korlátozása, ideértve azokat is, amelyek lehetővé teszik a számítógépes támadásokat.”-nyilatkozta DeepMind a

A műszaki innovációkon túl a DeepMind támogatja a világot átfogó strukturális változásokat. A vállalat javasolja egy olyan nemzetközi testület létrehozását, amely értékelné az AGI rendszereket, hasonlóan a nukleáris nem proliferációs megállapodásokhoz. Ez a szervezet elősegítené a globális kockázatok kezelését, és meghatározná az AGI fejlesztésének és tesztelésének szabványosított keretét. 2024 elején a vállalat új AI biztonsági és igazítási szervezetet hozott létre, amely több meglévő csapatát ötvözte, miközben új tehetségeket vezet be, amelyek kifejezetten az AGI kockázatokra összpontosítanak. Ez a belső fókusz a Google szélesebb körű elkötelezettségére támaszkodik az AI felelősségteljes fejlődésének biztosítása iránt. Az egyesülés előkészítette az utat a Gemini Model család fejlesztéséhez, amely jelentős frissítéseket mutatott a Gemini 2.5 Pro Experimental közelmúltbeli megjelenésével-a legújabb multimodális AI modell, amely képes a fejlett érvelésre. Ez az előrelépés jelzi a DeepMind növekvő képességeit, valamint arra összpontosít, hogy az ilyen hatalmas rendszerek felelősségteljesen telepítsék. Megérkezik, amikor más nagyobb AI laboratóriumok elkezdenek hasonló lépéseket tenni. Az antropikus, a Deepmind egyik legjelentősebb versenytársa, 2024 novemberében hasonló figyelmeztetést adott ki, sürgette a szabályozókat, hogy 18 hónapon belül gyorsan cselekedjenek a menekülési AI fejlődés megakadályozása érdekében. Az antropikus az Egyesült Államok Energiaügyi Minisztériumának Nemzeti Nukleáris Biztonsági Igazgatóságával is együttműködik, és vörös-adósságú gyakorlatokat folytat a Claude modellek nagybiztonsági környezetben történő tesztelésére. Ez a kezdeményezés hangsúlyozza az AI biztonságának egyre növekvő figyelmét, különösen olyan helyzetekben, ahol az AI befolyásolhatja a nemzetbiztonságot. 2025 februárjában a társaság bejelentette az AI stratégiájának elmozdulását a Frontier AI keretrendszerrel, amely a modelleket „nagy kockázatú” és „kritikus kockázatú” kategóriákba osztja. A Meta kifejtette, hogy a kritikus kockázatú modelleket már nem szabad nyilvánosan felszabadítani anélkül, hogy szigorú biztosítékok nélkül vannak. A Meta hangsúlyozta, hogy célja az, hogy minimalizálja az ezekkel a modellekkel kapcsolatos katasztrofális kockázatokat. Mivel egyre több vállalat újrakalibrálja stratégiáikat, a DeepMind javaslata nagyobb óvatossághoz illeszkedik, mivel az iparág az AGI jövőjével küzd. Februárban az Antropic elindította az Alkotmányos osztályozót, egy külső szűrőrendszert, amelynek célja az AI modelljeinek ellenállási utasításainak és káros kimeneteinek megakadályozása. A tesztek azt mutatták, hogy az osztályozó a jailbreak sikerességi arányát 86%-ról mindössze 4,4%-ra csökkentette. A résztvevők egyikének sem sikerült teljes mértékben megsértenie, hangsúlyozva az AI rendszerek tárolására szolgáló eszközök növekvő kifinomultságát. A neurális aktivációk elemzésével nyomon követheti, hogy a modell hogyan dolgozza fel az információkat, és felismeri a potenciálisan káros viselkedést. A 2024 decemberében bevezetett CLIO több millió beszélgetést elemez Claude-val a visszaélés mintáinak észlelése érdekében. A rendszer prioritást élvez a magánélet védelmével azáltal, hogy anonimizálja a beszélgetéseket, mielőtt feldolgozza őket. Az AI viselkedés megfigyelésének ez a proaktív megközelítése igazodik a DeepMind hangsúlyozásával a folyamatos biztonsági felügyelet szükségességére, mivel az AI rendszerek kifinomultabbá válnak. Az Európai Unió AI-törvény, amely február 2-án lépett hatályba, tiltja a „elfogadhatatlan kockázatokat”, és szigorú átláthatósági követelményeket ír elő a magas kockázatnak tekintettnek. Az olyan vállalatok, mint az Openai és a META, nyilvánosan elkötelezték magukat e követelmények teljesítése mellett, bár sokan még nem teljes mértékben megfelelnek. Az Európai Bizottság már jelezte, hogy a megsértés izmos bírságokat eredményezhet-a vállalat globális bevételének 6%-ára a jogsértések miatt. A TechCrunch beszámolója szerint azonban az antropikus csendesen visszatért számos biztonsági kötelezettségvállalást, amelyet a Biden adminisztráció kezdeti napjaiban tett, kérdéseket vetve fel az iparág önszabályozó erőfeszítéseinek konzisztenciájáról. Ez a háttere meghatározza a DeepMind erősebb kormányzási felhívásának színpadát. A hardvervállalatok szintén szerepet játszanak az AI biztonsági infrastruktúra kiépítésében. Az NVIDIA például 2025 januárjában vezette be a Nemo Guardbails-t, egy olyan mikroszolgáltatási csomagot, amelynek célja a káros AI viselkedés valós idejű biztosításainak biztosítása. Az eszközök tartalmazzák a tartalombiztonsági szűrőket, a jailbreak észlelését és a téma-ellenőrzést, mindegyiket a meglévő modellekkel párhuzamosan működtetik annak biztosítása érdekében, hogy megfeleljenek a biztonsági protokolloknak. Kari Briski, az NVIDIA Enterprise AI modellek alelnöke megjegyezte, hogy ezek a rendszerek lehetővé teszik a vállalkozások számára, hogy „biztosítják modelleiket a káros outputok ellen”, miközben fenntartják az alacsony késleltetésű teljesítményt. Ezeknek a technológiáknak az integrálásával az NVIDIA kulcsszerepet játszik az AI jövőbeli biztonságában. Miközben a DeepMind keretrendszere a globális irányítási struktúrát támogatja, egyértelmű, hogy az AI biztosításának útja összehangolt fellépést igényel mind a fejlesztők, mind a hardver-szolgáltatóktól.