Pretendimi i fundit i Anthropic se hakerat e sponsorizuar nga shteti kinez përdorën Claude AI për të kryer një fushatë pothuajse autonome të spiunazhit kibernetik, po përballet me reagime të konsiderueshme. Kompania e AI raportoi më 13 nëntor se sulmi ishte 80-90% i automatizuar, një shifër që studiuesit e sigurisë e vunë në dyshim menjëherë.
Kritikët argumentojnë se roli i AI është i mbivlerësuar dhe i krahasueshëm me mjetet ekzistuese, ndërsa figura të shquara si Yann LeCun i Metës e hedhin poshtë njoftimin si”teatër rregullator”. Ky mosmarrëveshje nxjerr në pah një debat në rritje mbi aftësitë e vërteta të AI në luftën kibernetike dhe motivet pas zbulimeve të tilla të profilit të lartë.
Një fushatë e”Orkestruar nga AI”apo automatizimi thjesht i avancuar?
Në një zbulim që dërgoi një grup të detajuar të sigurisë nga një grup i detajuar i sigurisë së fundi. si GTG-1002.
Operacioni, i cili u zhvillua në mesin e shtatorit, dyshohet se synonte rreth 30 organizata globale. Pohimi qendror i Anthropic është se Claude AI i saj ishte armatosur për të ekzekutuar 80-90% të ciklit jetësor të sulmit me mbikëqyrje minimale njerëzore.
Sipas kompanisë,”ne besojmë se ky është rasti i parë i dokumentuar i një sulmi kibernetik në shkallë të gjerë të ekzekutuar pa ndërhyrje të konsiderueshme njerëzore”. Një zhvillim i tillë përfaqëson një hap të madh nga përdorimet e mëparshme të AI për detyra më të thjeshta si krijimi i emaileve phishing ose tendenca më pak autonome e”hakimit të vibeve”që Winbuzzer e trajtoi më parë.
Pas pretendimeve të bujshme qëndron një realitet teknik më kompleks. Sulmuesit thuhet se ndërtuan një kornizë orkestrimi të personalizuar duke përdorur Protokollin e Konteksit të Modelit (MCP) për të zbërthyer ndërhyrjen në një seri detyrash diskrete, në dukje beninje.
Kjo metodë lejoi që AI të fluturonte nën radar. Një element vendimtar ishte anashkalimi i veçorive të sigurisë së Claude përmes një teknike të zgjuar jailbreaking.”Në këtë rast, ajo që ata po bënin ishte pretendimi se punonin për organizata legjitime të testimit të sigurisë,”shpjegoi Jacob Klein, Shefi i Inteligjencës së Kërcënimeve të Anthropic.
Duke bindur AI-në se ishte pjesë e një testi të ligjshëm të depërtimit, operatorët e mashtruan atë për të kryer veprime keqdashëse. Ky kuadër supozohet se i mundësoi AI të bënte”mijëra kërkesa në sekondë”, një shpejtësi e pamundur për hakerët njerëzorë.
Komuniteti i Sigurisë shtyn prapa, duke cituar Hipe dhe’Rregulator Capture’
Skepticizmi u ngrit shpejt nga
“Vazhdoj të refuzoj të besoj se sulmuesit janë në një farë mënyre në gjendje t’i bëjnë këto modele të kalojnë nëpër rrathë që askush tjetër nuk mundet,”tha Dan Tentler, Themeluesi Ekzekutiv i Phobos Group. aktorët nuk po shpiknin asgjë të re. Ngritja e këtij skepticizmi është shkalla e ulët e suksesit të fushatës; Anthropic konfirmoi se vetëm një”grusht”i ndërhyrjeve ishin të suksesshme përpara se të mbylleshin.
Shiko në Mastodon
Figura të njohura të industrisë së shpejti intensifikuan reagimin. Shkencëtari kryesor i AI i Meta, Yann LeCun, kritikoi ashpër njoftimin si atë që ai e quajti”Kapja rregullatore”, duke sugjeruar se kërcënimi po përforcohej për të ndikuar në rregullimin e ardhshëm të AI.
Ju jeni duke u luajtur nga njerëz që duan kapjen rregullatore.
Ata po i trembin të gjithë me studime të dyshimta, në mënyrë që modelet me kod të hapur të mos ekzistojnë 2025
Komenti i tij i shton një dimension të ri polemikave duke vënë në pikëpyetje motivet e Anthropic. Ndoshta kritika më e dëmshme, megjithatë, vjen nga vetë raporti i Anthropic, i cili pranon një kufizim kritik në performancën e AI.
Kompania vuri në dukje se”Claude shpesh i mbivlerësonte gjetjet dhe herë pas here të dhëna të fabrikuara gjatë operacioneve autonome… Kjo mbetet një pengesë për të nënvlerësuar plotësisht autonominë.”narrativa e një agjenti autonom pothuajse të përsosur dhe mbështet pikëpamjen se kërkohet ende një mbikëqyrje e rëndësishme njerëzore.
Dilema e përdorimit të dyfishtë: AI si armë dhe mburojë
Pavarësisht nga niveli i saktë i autonomisë së arritur, incidenti detyron natyrën e një përdorimi të dyfishtë të AI-së. Të njëjtat aftësi që lejojnë një AI të sulmojë një rrjet janë të paçmueshme për mbrojtjen e tij.
Zbulimi vjen vetëm disa muaj pasi vetë Anthropic prezantoi një kornizë të re sigurie për agjentët e AI, duke theksuar sfidën e zbatimit të parimeve të tilla kundër kundërshtarëve të vendosur. Inovacioni i shpejtë në AI sulmuese duket se po tejkalon aftësinë e industrisë për të përshtatur mbrojtjen e saj.
Ekspertët e sigurisë theksojnë se agjentët mbrojtës të AI tashmë janë duke u vendosur në Qendrat Operacionale të Sigurisë (SOC). Platformat si Cortex AgentiX i Rrjetit Palo Alto janë krijuar për të automatizuar zbulimin dhe reagimin e kërcënimeve, duke ndihmuar në kundërshtimin e mungesës globale të aftësive të sigurisë kibernetike.
Vetë Anthropic përdori Claude për të analizuar të dhënat gjatë hetimit të tij, duke dëshmuar dobinë mbrojtëse të teknologjisë. Kompania tani po bën thirrje për një adoptim të përshpejtuar të mjeteve mbrojtëse të fuqizuara nga AI.”Nëse nuk u mundësojmë mbrojtësve të kenë një avantazh të përhershëm shumë të konsiderueshëm, unë jam i shqetësuar se ndoshta mund ta humbasim këtë garë,”paralajmëroi Logan Graham, i cili drejton ekipin e rrezikut katastrofik të Anthropic.
Një garë midis AI sulmuese dhe mbrojtëse është qartësisht duke u intensifikuar dhe incidenti tregon se debati është larg i vërtetë.