Google DeepMind ka prezantuar një kornizë gjithëpërfshirëse që synon vlerësimin dhe zbutjen e rreziqeve të mundshme që lidhen me modelet e avancuara të AI. Korniza e sigurisë kufitare kërkon të adresojë aftësi të rrezikshme ndërsa teknologjia e AI vazhdon të evoluojë.

Kuadri i sigurisë së AI, i lëshuar nga Google DeepMind, përshkruan një proces sistematik për vlerësimin e modeleve të AI. Vlerësimet ndodhin sa herë që fuqia llogaritëse e përdorur për të trajnuar një model rritet gjashtëfish ose kur modeli i nënshtrohet rregullimit të imët për tre muaj. Midis vlerësimeve, sistemet e paralajmërimit të hershëm janë krijuar për të zbuluar rreziqet në zhvillim. DeepMind planifikon të bashkëpunojë me kompani të tjera, akademi dhe ligjvënës për të përmirësuar dhe përmirësuar kuadrin, me zbatimin e mjeteve të auditimit të vendosura për të filluar deri në vitin 2025.

Praktikat aktuale të vlerësimit

Aktualisht, vlerësimi i modeleve të fuqishme të AI është një proces ad hoc, që po zhvillohet ndërsa studiuesit zhvillojnë teknika të reja.”Ekipet e kuqe”shpenzojnë periudha të gjata duke testuar modele duke u përpjekur të anashkalojnë masat mbrojtëse duke përdorur kërkesa të ndryshme.
 
Kompanitë më pas zbatojnë teknika të tilla si mësimi i përforcimit dhe udhëzimet speciale për të siguruar pajtueshmërinë. Ndërsa kjo qasje mjafton për modelet aktuale, të cilat nuk janë megjithatë mjaftueshëm i fuqishëm për të paraqitur kërcënime të rëndësishme, një proces më i fuqishëm konsiderohet i nevojshëm ndërsa aftësitë e AI përparojnë.

Nivelet kritike të aftësisë

DeepMind ka vendosur nivele specifike të aftësive kritike për katër fusha: autonominë, biosigurinë, sigurinë kibernetike dhe kërkimin dhe zhvillimin e të mësuarit të makinës. Këto nivele janë krijuar për të identifikuar modele që mund të ushtrojnë kontroll mbi njerëzit ose të krijojnë malware të sofistikuar. Kompania thekson rëndësinë e balancimit të zbutjes së rrezikut me nxitjen e inovacionit dhe aksesit në teknologjinë e AI. Bashkëpunimi

Kuadri i Sigurisë Kufitare është krijuar për të identifikuar dhe zbutur në mënyrë proaktive rreziqet e ardhshme të paraqitura nga modelet e avancuara të AI, duke trajtuar dëme të rënda të mundshme, si agjencitë e jashtëzakonshme ose aftësitë e sofistikuara kibernetike.
 
Ai synon të plotësojë kërkimin ekzistues të shtrirjes së AI dhe grupin e përgjegjësive të AI dhe praktikat e sigurisë të Google. Korniza do të evoluojë ndërsa zbatimi përparon dhe ndërsa bashkëpunimi me industrinë, akademinë dhe qeverinë thellohet.

Ekipi i Sigurisë Kufitare ka zhvilluar një grup vlerësimi për të vlerësuar rreziqet nga aftësitë kritike, duke theksuar agjentët autonome LLM. Punimi i tyre i fundit eksploron mekanizmat për një”sistem të paralajmërimit të hershëm”për të parashikuar aftësitë e ardhshme. Korniza do të rishikohet dhe zhvillohet periodikisht, duke u përafruar me Parimet e AI të Google për të siguruar përfitim të gjerë duke zbutur rreziqet.

Kritikë si Eliezer Yudkowsky. shpreh skepticizëm në lidhje me aftësinë për të zbuluar superinteligjencën në modelet e AI menjëherë për të Për të parandaluar kërcënimet e mundshme, ata argumentojnë se natyra e qenësishme e teknologjisë së AI mund t’i mundësojë asaj të tejkalojë masat e sigurisë të krijuara nga njeriu.

Kuadri i Google DeepMind do të diskutohet në një Samiti i UA në Seul, ku liderët e industrisë do të mblidhen për të ndarë njohuri dhe përparime në sigurinë e AI.

Categories: IT Info