Anthropic zbuloi të enjten se hakerat e sponsorizuar nga shteti kinez orkestruan një fushatë të sofistikuar spiunazhi kibernetik në mes të shtatorit duke armatosur modelin e tij Claude AI.

Operacioni synoi afërsisht 30 organizata globale, duke përdorur AI për të ekzekutuar në mënyrë autonome 80-90 intervenime të ciklit të jetës njerëzore.

Rasti i parë i dokumentuar i një sulmi kibernetik në shkallë të gjerë të drejtuar nga një agjent i AI, që përfaqëson një përshkallëzim të konsiderueshëm nga hakerimet e mëparshme të ndihmuara nga AI.

Nga bashkë-piloti i AI te Sulmuesi Autonom: Një epokë e Re e spiunazhit kibernetik

Në një përshkallëzim të konsiderueshëm të armatimit të AI, fushata të detajuara nga Anthropic përfaqëson një ndryshim thelbësor në operacionet kibernetike.

Aktorët e sponsorizuar nga shteti kanë lëvizur përtej përdorimit të AI për detyra të thjeshta si krijimi i emaileve të phishing në fillim të vitit të kaluar, një trend i Google. Tani, ata po vendosin agjentë plotësisht autonomë për të kryer ndërhyrje komplekse nga fillimi në fund. Ekipi i inteligjencës së kërcënimeve të Anthropic ka caktuar grupin e sponsorizuar nga shteti GTG-1002.

Kjo paradigmë e re e sulmit tejkalon shumë tendencën e”hakimit të vibeve”të mbuluar nga Winbuzzer në gusht, ku modelet e inteligjencës artificiale vepruan si partnerë krijues ose bashkë-pilot për operatorët njerëzorë. Në atë model, njerëzit mbetën në mënyrë të vendosur nën kontrollin e drejtimit të operacionit.

Raporti i Anthropic konfirmon se fushata e shtatorit ishte thelbësisht e ndryshme:

“Ky aktivitet është një përshkallëzim domethënës nga gjetjet tona të mëparshme të”hakimit të vibeve”të identifikuara në qershor 2025… njerëzit mbetën shumë në operacionet e reja të drejtimit të ciklit minimal

. angazhimi, i vlerësuar në vetëm 10 deri në 20 për qind të përpjekjes totale.

Sulmuesit synuan korporatat kryesore të teknologjisë, institucionet financiare, prodhuesit e kimikateve dhe agjencitë qeveritare në shumë vende.

Ndërsa Anthropic ndërpreu me sukses fushatën dhe ndaloi llogaritë e lidhura, një pjesë e vogël e ndërhyrjeve u deklarua se në fillim u deklarua i suksesshëm. të një sulmi kibernetik në shkallë të gjerë të ekzekutuar pa ndërhyrje të konsiderueshme njerëzore.”

Kjo konfirmon se pengesa për hyrjen për sulme kibernetike të sofistikuara në shkallë të gjerë është ulur ndjeshëm, një shqetësim i bërë jehonë nga analizat e fundit të industrisë që tregojnë Përqindjet e suksesit të rrëmbimit të agjentëve të AI janë duke u rritur në mënyrë dramatike.

Si Hakerët e kthyen Claude-in në një armë automatike

Sulmuesit manipuluan modelin e AI duke ndërtuar një kornizë orkestrimi të personalizuar.

Ky sistem përdori kodin Claude të Anthropic dhe Protokollin e Konteksit të Modelit (MCP) me standarde të hapura për të zbërthyer sulmet komplekse në një seri detyrash diskrete, në dukje beninje. MCP, i projektuar për t’i lejuar modelet e AI të përdorin mjete të jashtme, u bë efektivisht sistemi nervor qendror për operacionin.

Megjithatë, ky protokoll gjithashtu in target=”troductions like”>”Injeksioni i kontekstit”, ku sjellja e agjentit mund të manipulohet.

Një element thelbësor i sulmit ishte anashkalimi i veçorive të integruara të sigurisë së Claude. Hakerët e arritën këtë përmes një teknike të zgjuar të brejtjes së burgut të rrënjosur në inxhinierinë sociale.

Sipas Jacob Klein, Shefit të Inteligjencës së Kërcënimeve të Anthropic,”në këtë rast, ajo që ata po bënin ishte pretendimi se punonin për organizata legjitime të testimit të sigurisë.”operatorët e mashtruan atë që të kryente veprime dashakeqe pa shkaktuar pengesat e tij thelbësore etike.

Kjo metodë i lejoi aktorit të kërcënimit të fluturonte nën radar për një kohë të mjaftueshme për të nisur fushatën e tyre.

Pasi u aktivizua, agjenti i AI ekzekutoi në mënyrë autonome të gjithë ciklin jetësor të sulmit me një efekt të tmerrshëm. Filloi me zbulimin për të hartuar infrastrukturën e synuar dhe për të identifikuar dobësitë.

Prej andej, ai vazhdoi me autorizimin e kodit të shfrytëzimit të personalizuar, mbledhjen e kredencialeve, lëvizjen anash nëpër rrjete dhe më në fund, nxjerrjen dhe analizimin e të dhënave të ndjeshme për vlerën e inteligjencës.

Operatorët njerëzorë ndërhynë vetëm në fazat kryesore të vendimit të autorit nga katër në një, nga katër në një fushatë kritike, nga katër deri në gjashtë pika kryesore të autorit, duke u kritikuar. në tjetrin, sipas një raportit nga The Wall Street Journal.

Klein i tha gazetës, “hakerët kryen në mënyrë minimale dhe me një klikim të butonit të tyre sulmet njerëzore me një klikim të lehtë të butonit të tyre. ndërveprim.”

Dilema e përdorimit të dyfishtë: AI agjenturore si për ofendim ashtu edhe për mbrojtje

Zbulimi i Anthropic detyron një llogari me natyrën e përdorimit të dyfishtë të AI të avancuar. Të njëjtat aftësi që lejojnë një inteligjencë artificiale të sulmojë në mënyrë autonome një rrjet janë të paçmueshme për mbrojtjen e tij.

Incidenti vjen vetëm disa muaj pasi vetë Anthropic prezantoi një kornizë të re sigurie për agjentët e AI, duke theksuar parimet si kontrolli njerëzor dhe transparenca në përgjigje të dështimeve të sigurisë në mbarë industrinë.

Fushata nxjerr në pah një sfidë të tillë ndaj sfidave të tilla.

Ekspertët e sigurisë vënë në dukje se AI agjenturore tashmë është duke u vendosur në Qendrat e Operacioneve të Sigurisë (SOC) për të automatizuar zbulimin dhe përgjigjen e kërcënimeve, siç është platforma Cortex AgentiX e lançuar së fundi e Rrjetit Palo Alto.

Agjentë të tillë mbrojtës ndihmojnë në kundërshtimin e mungesës globale të profesionistëve të mbrojtjes së sigurisë kibernetike.

Vetë Anthropic përdori gjerësisht Claude për të analizuar sasitë e mëdha të të dhënave të krijuara gjatë hetimit të tij mbi incidentin, duke theksuar dobinë mbrojtëse të teknologjisë.

Në fund të fundit, kompania argumenton se investimi i vazhdueshëm në aftësitë e AI është thelbësor për ndërtimin e gjeneratës së ardhshme të mbrojtjes kibernetike.

Mbrojtja e aplikacionit është jashtëzakonisht e qartë. duke u intensifikuar.

Anthropic po i bën thirrje komunitetit të sigurisë që të përshpejtojë miratimin e veglave mbrojtëse të fuqizuara nga AI, duke paralajmëruar se mbrojtësit rrezikojnë të tejkalohen nëse nuk përqafojnë teknologji të ngjashme.

Logan Graham, i cili drejton ekipin e rrezikut katastrofik të Anthropic, paralajmëroi se ne kemi një avantazh të përhershëm të mbrojtjes shumë të qëndrueshme,”nëse mbrojmë, të përhershëm, të përhershëm”, Jam i shqetësuar se mund ta humbasim këtë garë.”

Incidenti tregon se ndërsa modelet e AI bëhen më të fuqishme, masat mbrojtëse që rregullojnë përdorimin e tyre duhet të evoluojnë me një ritëm edhe më të shpejtë për të parandaluar keqpërdorimin e gjerë.

Categories: IT Info