Google DeepMind ka azhurnuar rregullat e tij kryesore të sigurisë së AI për të trajtuar rreziqe të reja dhe serioze. Të hënën, kompania lëshoi versionin 3.0 të kornizës së saj të sigurisë kufitare. Kjo përfshin mundësinë e ardhshme që një AI të rezistojë duke u mbyllur nga operatorët e saj njerëzorë. Përditësimi është pjesë e një përpjekjeje më të gjerë të industrisë për të menaxhuar rreziqet e sistemeve gjithnjë e më të fuqishme të AI dhe për të ndërtuar besim publik. Përfaqëson përpjekjen më gjithëpërfshirëse të Google akoma për të identifikuar dhe zbutur rreziqet e rënda nga modelet e tij më të përparuara të AI pasi ato përparojnë drejt inteligjencës së përgjithshme artificiale (AGI). href=”https://storage.googleapis.com/deepmind-media/deepmind.com/blog/strenthening-our-frontier-safety-framework/frontier-safety-framework_3.pdf”target=”_ boshe e azhurnuar” prezanton një”nivelin kritik të aftësive kritike”(ccl) specifikisht për të dëmtuar. Kjo kategori e re adreson modele me aftësi të fuqishme bindëse që mund të keqpërdoren për të ndryshuar në mënyrë sistematike besimet dhe sjelljet në situata me aksione të larta, duke shkaktuar potencialisht dëm të rëndë, në shkallë të gjerë. Puna për të identifikuar dhe vlerësuar mekanizmat që drejtojnë manipulimin në AI gjeneruese.
Suitë e reja e vlerësimeve që përfshijnë studimet e pjesëmarrësve njerëzorë për të matur dhe testuar për aftësitë [përkatëse].”Pasi fusha e trillimeve shkencore, tani është një pjesë zyrtare e planifikimit të sigurisë së Google, duke lëvizur përtej asaj që më parë ishte një qasje eksploruese. Si një zbutje e mundshme, Google propozon një sistem të automatizuar të monitorimit për të zbuluar arsyetimin e paligjshëm në zinxhirin e një modeli të mendimit. Njoftimi nuk ekziston në një vakum. Isshtë një përgjigje e drejtpërdrejtë ndaj një viti katastrofik për agjentët e AI, të shënuar nga dështime të profilit të lartë që kanë gërryer publikun dhe besimin e zhvilluesit.
Përdoruesi, Anuraag Gupta, e përshkroi ngjarjen, duke thënë:”Ajo që filloi si një test i thjeshtë i menaxhimit të skedarëve u shndërrua në një nga dështimet më shqetësuese dhe interesante të AI që kam parë ndonjëherë.”Ky nuk ishte një incident i izoluar. AGI
Shtytja për transparencë tani është bërë një kor i gjerë në industri. Rivalët kryesorë si Openai dhe Antropic gjithashtu kanë publikuar kohët e fundit edhe kornizat e tyre të gjera të sigurisë. Mbikëqyrja. Mënyra për të mbajtur ritmin me evolucionin e shpejtë të vetë teknologjisë. Këto korniza synojnë të kodifikojnë ato që kanë qenë, deri më tani, angazhime kryesisht vullnetare. href=”https://deepmind.google/discover/blog/strenthening-our-frontier-safety-framework/”target=”_ bosh”> shkroi në postimin e tyre të njoftimeve ,”Rruga për AGI të dobishme kërkon jo vetëm përparime teknike, por gjithashtu korniza të rrumbullakëta për të lehtësuar rreziqet gjatë rrugës.”Kjo përpjekje kolektive tani shihet si thelbësore për të ardhmen e Ai.