Gjashtëmbëdhjetë kompani të njohura të AI, përfshirë Google, Microsoft, IBM dhe OpenAI, kanë rënë dakord të çaktivizojnë teknologjitë e tyre nëse shfaqin shenja të shkaktimit të rezultateve të dëmshme. Ky angazhim u bë gjatë UA Seoul Summit 2024 në Korenë e Jugut, një ngjarje e rëndësishme pas Samitit të Sigurisë së AI të vitit të kaluar. Samiti i mëparshëm rezultoi në Deklaratën e Bletchley-t, e nënshkruar nga 28 vende dhe BE, e cila përvijoi një vizion për menaxhimin e rreziqeve të AI pa angazhime detyruese.
Angazhimet kufitare për sigurinë e AI
Samiti i Seulit ka prezantuar Angazhimet e Sigurisë së AI Kufitare, të cilat kërkojnë që kompanitë pjesëmarrëse të publikojnë kornizat e sigurisë. Këto korniza do të detajojnë se si ata planifikojnë të masin dhe menaxhojnë rreziqet që lidhen me modelet e tyre të AI. Kompanitë duhet të specifikojnë kur rreziqet bëhen të papranueshme dhe të përshkruajnë veprimet që do të ndërmarrin në skenarë të tillë. Nëse masat për zbutjen e rrezikut dështojnë, nënshkruesit janë zotuar të ndalojnë zhvillimin ose vendosjen e modelit ose sistemit problematik të AI.
Nënshkruesit janë angazhuar për disa iniciativa, duke përfshirë bashkimin e modeleve të tyre të AI, ndarjen e informacionit, investimet. në sigurinë kibernetike dhe nxitjen e raportimit të dobësive nga palët e treta. Ata janë zotuar gjithashtu të etiketojnë përmbajtjen e krijuar nga AI, t’i japin përparësi kërkimeve mbi rreziqet shoqërore dhe të përdorin AI për të adresuar sfidat globale.
Ndër nënshkruesit janë OpenAI, Microsoft, Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Instituti i Inovacionit, xAI, dhe Zhipu.ai. Specifikat e këtyre angazhimeve pritet të finalizohen në “Samiti i Veprimit të AI” i planifikuar për në fillim të vitit 2025.
Organizatat kanë rënë dakord për UA kufitare vijuese të UA-së. Angazhimet e sigurisë:
“Rezultati 1. Organizatat identifikojnë, vlerësojnë dhe menaxhojnë në mënyrë efektive rreziqet kur zhvillojnë dhe vendosin modelet dhe sistemet e tyre kufitare të AI-së I. Vlerësoni rreziqet e paraqitura nga modelet ose sistemet e tyre kufitare përgjatë ciklit jetësor të AI, duke përfshirë përpara vendosjes së atij modeli ose sistemi, dhe, sipas rastit, para dhe gjatë trajnimit, vlerësimet e rrezikut duhet të marrin në konsideratë aftësitë e modelit dhe kontekstin në të cilin ato zhvillohen të vendosura, si dhe efikasitetin e masave zbutëse të zbatuara për të reduktuar rreziqet që lidhen me përdorimin dhe keqpërdorimin e tyre të parashikueshëm, ato duhet gjithashtu të marrin në konsideratë rezultatet nga vlerësimet e brendshme dhe të jashtme sipas rastit, si p.sh. ], dhe organe të tjera që qeveritë e tyre i konsiderojnë të përshtatshme.
II. Përcaktoni kufijtë [fusnota 3] në të cilat rreziqet e rënda të paraqitura nga një model ose sistem, përveç nëse zbuten në mënyrë adekuate, do të konsideroheshin të patolerueshme. Vlerësoni nëse këto pragje janë shkelur, duke përfshirë monitorimin se sa afër është një model ose sistem me një shkelje të tillë. Këto pragje duhet të përcaktohen me kontributin e aktorëve të besuar, duke përfshirë qeveritë përkatëse të organizatave sipas rastit. Ata duhet të përputhen me marrëveshjet ndërkombëtare përkatëse në të cilat qeveritë e tyre të origjinës janë palë. Ato duhet të shoqërohen gjithashtu nga një shpjegim se si u vendosën pragjet dhe nga shembuj specifik të situatave ku modelet ose sistemet do të përbënin rrezik të patolerueshëm.
III. Artikuloni se si do të identifikohen dhe zbatohen zbutjet e rrezikut për t’i mbajtur rreziqet brenda kufijve të përcaktuar, duke përfshirë zbutjen e rrezikut të lidhur me sigurinë, të tilla si modifikimi i sjelljeve të sistemit dhe zbatimi i kontrolleve të fuqishme të sigurisë për peshat e modeleve të papublikuara.
IV. Përcaktojnë procese të qarta që ata synojnë të ndjekin nëse modeli ose sistemi i tyre paraqet rreziqe që plotësojnë ose tejkalojnë pragjet e paracaktuara. Kjo përfshin procese për zhvillimin dhe vendosjen e mëtejshme të sistemeve dhe modeleve të tyre vetëm nëse vlerësojnë se rreziqet e mbetura do të qëndrojnë nën pragjet. Në ekstrem, organizatat angazhohen të mos zhvillojnë ose vendosin fare një model ose sistem, nëse nuk mund të zbatohen masat zbutëse për të mbajtur rreziqet nën kufijtë.
V. Investoni vazhdimisht në avancimin e aftësisë së tyre për të zbatuar angazhimet i-iv, duke përfshirë vlerësimin dhe identifikimin e rrezikut, përcaktimin e pragjeve dhe efektivitetin e zbutjes. Kjo duhet të përfshijë procese për të vlerësuar dhe monitoruar përshtatshmërinë e masave zbutëse, dhe për të identifikuar masat zbutëse shtesë sipas nevojës për të siguruar që rreziqet të mbeten nën kufijtë e paracaktuar. Ata do të kontribuojnë dhe do të marrin parasysh praktikat më të mira në zhvillim, standardet ndërkombëtare dhe shkencën mbi identifikimin, vlerësimin dhe zbutjen e rrezikut të AI.
Rezultati 2. Organizatat janë përgjegjëse për zhvillimin dhe vendosjen e sigurt të kufirit të tyre. Modelet dhe sistemet e AI. Ata do të:
VI. Përmbaju angazhimeve të përshkruara në I-V, duke përfshirë zhvillimin dhe rishikimin e vazhdueshëm të kornizave të llogaridhënies dhe qeverisjes së brendshme dhe caktimin e roleve, përgjegjësive dhe burimeve të mjaftueshme për ta bërë këtë.
Rezultati 3. Qasjet e organizatave ndaj AI kufitare. siguria janë mjaft transparente për aktorët e jashtëm, duke përfshirë qeveritë. Ata do të:
VII. Sigurimi i transparencës publike për zbatimin e sa më sipër (I-VI), me përjashtim të rasteve kur kjo do të rriste rrezikun ose do të zbulonte informacione të ndjeshme tregtare në një shkallë joproporcionale me përfitimin shoqëror. Ata duhet të ndajnë ende informacione më të detajuara që nuk mund të ndahen publikisht me aktorët e besuar, duke përfshirë qeveritë e tyre përkatëse ose organet e emëruara, sipas rastit.
VIII. Shpjegoni se si, nëse fare, aktorët e jashtëm, si qeveritë, shoqëria civile, akademikët dhe publiku përfshihen në procesin e vlerësimit të rreziqeve të modeleve dhe sistemeve të tyre të AI, përshtatshmërinë e kornizës së tyre të sigurisë (siç përshkruhet në I-VI), dhe respektimin e tyre në atë kornizë.”
Bashkëpunimi global dhe planet e së ardhmes
Në një shkrim të përbashkët të shkruar, Kryeministri i Mbretërisë së Bashkuar Rishi Sunak dhe presidenti i Koresë së Jugut, Yoon Suk Yeol theksuan urgjencën e përshpejtimit përpjekjet në qeverisjen e AI-së Në Samitin e Seulit u miratua gjithashtu Deklarata e Seulit, e cila thekson rëndësinë e ndërveprimit midis kornizave të qeverisjes së AI për të maksimizuar përfitimet dhe për të zbutur rreziqet. Australia, OKB, OECD dhe BE, së bashku me liderët e industrisë.