Tizenhat prominens mesterséges intelligencia-cég, köztük a Google, a Microsoft, az IBM és az OpenAI, beleegyezett abba, hogy deaktiválja technológiáit, ha káros következményekre utaló jeleket mutatnak. Ezt a kötelezettségvállalást a AI Seoul Summit 2024 Dél-Koreában, jelentős esemény a tavalyi AI biztonsági csúcstalálkozót követően. Az előző csúcstalálkozó eredményeként született meg a 28 ország és az EU által aláírt Bletchley-nyilatkozat, amely felvázolta az AI-kockázatok kötelező érvényű kötelezettségvállalások nélküli kezelésének jövőképét.
Határterületi AI biztonsági kötelezettségvállalások
A szöuli csúcstalálkozón bevezették a határmenti mesterséges intelligencia biztonsági kötelezettségvállalásait, amelyek megkövetelik a részt vevő vállalatoktól, hogy tegyenek közzé biztonsági kereteket. Ezek a keretrendszerek részletezik, hogyan tervezik mérni és kezelni az AI-modelljeikkel kapcsolatos kockázatokat. A vállalatoknak meg kell határozniuk, hogy mikor válnak elfogadhatatlanná a kockázatok, és fel kell vázolniuk az ilyen forgatókönyvekben megtett intézkedéseket. Ha a kockázatcsökkentés sikertelen, az aláírók ígéretet tettek arra, hogy leállítják a problémás mesterségesintelligencia-modell vagy-rendszer fejlesztését vagy bevezetését.
Az aláírók több kezdeményezés mellett is elkötelezték magukat, beleértve a mesterséges intelligencia modelljeik összevonását, az információk megosztását és a befektetéseket. a kiberbiztonság területén, valamint a harmadik felek sebezhetőségi jelentésének ösztönzése. Azt is vállalták, hogy megcímkézik a mesterséges intelligencia által generált tartalmakat, előnyben részesítik a társadalmi kockázatokkal kapcsolatos kutatásokat, és a mesterséges intelligencia segítségével kezelik a globális kihívásokat.
Az aláírók között van OpenAI, Microsoft, Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI és Zhipu.ai. E kötelezettségvállalások részletei várhatóan a A 2025 elejére tervezett „AI Action Summit”.
A szervezetek a következő határ menti AI-ban állapodtak meg Biztonsági kötelezettségvállalások:
„Eredmény 1. A szervezetek hatékonyan azonosítják, értékelik és kezelik a kockázatokat határ menti mesterséges intelligenciamodelleik és-rendszereik fejlesztése és alkalmazása során:
I. Értékelje a határmodellek vagy-rendszerek által jelentett kockázatokat a mesterséges intelligencia életciklusa során, beleértve a modell vagy rendszer bevezetését, és adott esetben a képzés előtt és alatt is a bevezetett mérséklések hatékonyságát az előrelátható használatukkal és visszaélésekkel kapcsolatos kockázatok csökkentése érdekében. Szükség esetén figyelembe kell venniük a belső és külső értékelések eredményeit is, például független, harmadik féltől származó értékelőktől, illetve saját országuk kormányától [2. lábjegyzet. ], és a kormányaik által megfelelőnek ítélt egyéb szervek.
II. Határozzon meg küszöbértékeket [3. lábjegyzet], amelyeknél a modell vagy rendszer által jelentett súlyos kockázatok – hacsak nem megfelelően mérséklik – elviselhetetlennek minősülnek. Értékelje, hogy megsértették-e ezeket a küszöbértékeket, beleértve annak nyomon követését, hogy egy modell vagy rendszer milyen közel áll az átsértéshez. Ezeket a küszöbértékeket a megbízható szereplők hozzájárulásával kell meghatározni, beleértve adott esetben a szervezetek helyi kormányait is. Azokhoz a vonatkozó nemzetközi megállapodásokhoz kell igazodniuk, amelyeknek saját kormányaik részes felei. Ezekhez csatolni kell a küszöbértékek megállapításának módját, valamint konkrét példákat azokra a helyzetekre, amikor a modellek vagy rendszerek elviselhetetlen kockázatot jelentenek.
III. Fogalmazza meg, hogyan azonosítják és hajtják végre a kockázatcsökkentéseket, hogy a kockázatokat a meghatározott küszöbökön belül tartsák, beleértve a biztonsággal és a védelemmel kapcsolatos kockázatcsökkentéseket, például a rendszer viselkedésének módosítását és a kiadatlan modellsúlyok robusztus biztonsági ellenőrzéseinek végrehajtását.
IV. Határozzon meg kifejezett folyamatokat, amelyeket követni kívánnak, ha modelljük vagy rendszerük olyan kockázatokat rejt magában, amelyek elérik vagy meghaladják az előre meghatározott küszöbértékeket. Ez magában foglalja a rendszereik és modelljeik továbbfejlesztésére és üzembe helyezésére irányuló folyamatokat csak akkor, ha felmérik, hogy a fennmaradó kockázatok a küszöbértékek alatt maradnak. Szélsőséges esetben a szervezetek kötelezettséget vállalnak arra, hogy egyáltalán nem fejlesztenek vagy alkalmaznak egy modellt vagy rendszert, ha nem lehet mérsékelni a kockázatokat a küszöbértékek alatt.
V. Folyamatosan fektessenek be az i-iv. kötelezettségvállalások végrehajtására való képességük fejlesztésébe, beleértve a kockázatértékelést és-azonosítást, a küszöbértékek meghatározását és a mérséklés hatékonyságát. Ennek magában kell foglalnia a mérséklések megfelelőségének értékelésére és nyomon követésére szolgáló folyamatokat, valamint szükség esetén további mérséklések azonosítását annak biztosítására, hogy a kockázatok az előre meghatározott küszöbértékek alatt maradjanak. Hozzájárulnak és figyelembe veszik a mesterséges intelligencia kockázatának azonosításával, értékelésével és mérséklésével kapcsolatos, kialakulóban lévő legjobb gyakorlatokat, nemzetközi szabványokat és tudományt.
2. eredmény. A szervezetek felelősséggel tartoznak határaik biztonságos fejlesztéséért és alkalmazásáért. AI modellek és rendszerek. Ők:
VI. Tartsa be az I-V-ben körvonalazott kötelezettségvállalásokat, beleértve a belső elszámoltathatósági és irányítási keretrendszerek kidolgozását és folyamatos felülvizsgálatát, valamint az ehhez szükséges szerepek, felelősségek és elegendő erőforrások kijelölését.
Eredmény 3. A szervezetek megközelítései a határ menti AI-val kapcsolatban. a biztonság megfelelően átlátható a külső szereplők, köztük a kormányok számára. Ők:
VII. Nyilvános átláthatóságot kell biztosítani a fentiek (I-VI.) végrehajtásával kapcsolatban, kivéve, ha ez növelné a kockázatot, vagy a társadalmi haszonnal aránytalan mértékben hozna nyilvánosságra érzékeny kereskedelmi információkat. Továbbra is meg kell osztaniuk részletesebb információkat, amelyeket nem lehet nyilvánosan megosztani a megbízható szereplőkkel, ideértve a megfelelő helyi kormányukat vagy adott esetben kijelölt testületüket.
VIII. Magyarázza el, hogy a külső szereplőket, például a kormányokat, a civil társadalmat, az akadémikusokat és a nyilvánosságot hogyan vonják be AI-modelleik és-rendszereik kockázatainak, valamint biztonsági kereteik megfelelőségének felmérésébe (az I. fejezetben leírtak szerint). VI), valamint az ehhez a kerethez való ragaszkodásuk.”
Globális együttműködés és jövőbeli tervek
Egy közösen írt közleményben, Rishi Sunak brit miniszterelnök és Yoon Suk Yeol dél-koreai elnök hangsúlyozta a gyorsítás sürgősségét erőfeszítések a mesterséges intelligencia irányításában A Szöuli Csúcstalálkozón elfogadták a Szöuli Nyilatkozatot is, amely kiemeli a mesterséges intelligencia irányítási keretei közötti interoperabilitás jelentőségét az előnyök maximalizálása és a kockázatok csökkentése érdekében. Ausztrália, az ENSZ, az OECD és az EU, valamint az iparág vezetői.