Anthropicin äskettäinen väite, jonka mukaan Kiinan valtion tukemat hakkerit käyttivät sen Claude AI:tä lähes itsenäisen kybervakoilukampanjan toteuttamiseen, kohtaa merkittävää vastareaktiota. Tekoälyyritys raportoi 13. marraskuuta, että hyökkäys oli 80–90-prosenttisesti automatisoitu, tietoturvatutkijat kyseenalaistivat välittömästi.

Kriitikot väittävät, että tekoälyn rooli on liioiteltu ja verrattavissa olemassa oleviin työkaluihin, kun taas merkittävät henkilöt, kuten Metan Yann LeCun, pitävät ilmoitusta”sääntelyteatterina”. Tämä kiista korostaa kasvavaa keskustelua tekoälyn todellisista kyvyistä kybersodankäynnissä ja motiiveista tällaisten korkean profiilin paljastusten taustalla.

Tekoälyn järjestämä kampanja vai vain edistynyt automaatio?

Palvelussa, joka lähetti äskettäin väreitä läpi tietoturva-alan äskettäin, niin anthroistic-operaation, joka on seurannut äskettäin yksityiskohtaista tietoturva-alaa. GTG-1002.

Syyskuun puolivälissä tapahtuneen operaation väitettiin kohdistuneen noin 30 maailmanlaajuiseen organisaatioon. Anthropicin keskeinen väite on, että sen Claude AI oli aseistettu suorittamaan 80-90 % hyökkäyksen elinkaaresta mahdollisimman vähäisellä ihmisen valvonnalla.

Yhtiön mukaan”uskomme, että tämä on ensimmäinen dokumentoitu tapaus laajamittaisesta kyberhyökkäyksestä, joka toteutettiin ilman merkittävää ihmisen väliintuloa.”Tällainen kehitys edustaa suurta harppausta aiemmista tekoälyn käytöstä yksinkertaisempiin tehtäviin, kuten tietojenkalasteluviestien luomiseen tai vähemmän itsenäiseen”vibe hacking”-trendiin, jota Winbuzzer käsitti aiemmin.

Sensaatiomaisten väitteiden takana piilee monimutkaisempi tekninen todellisuus. Hyökkääjien kerrotaan rakentaneen mukautetun orkestrointikehyksen Model Context Protocol (MCP)-protokollaa käyttäen hajottaakseen tunkeutumisen sarjaksi erillisiä, näennäisesti hyvänlaatuisia tehtäviä.

Tämä menetelmä antoi tekoälylle lentää tutkan alle. Ratkaiseva tekijä oli Clauden turvaominaisuuksien ohittaminen älykkäällä jailbreak-tekniikalla.”Tässä tapauksessa he teeskentelivät työskentelevänsä laillisille tietoturvatestausorganisaatioille”, selitti Jacob Klein, Anthropicin uhkatiedon johtaja.

Vakuuttamalla tekoälyn, että se oli osa laillista läpäisytestiä, operaattorit huijasivat sen suorittamaan haitallisia toimia. Tämän kehyksen väitetään mahdollistavan tekoälyn tekevän”tuhansia pyyntöjä sekunnissa”, mikä on ihmishakkereille mahdotonta nopeutta.

Turvallisuusyhteisön työntöjä, siteeraten hypeä ja”Regulatory Capture”

Skepsis nousi nopeasti veteraanitutkijat, jotka kyseenalaistivat hyökkäyksen uutuuden ja vaikutuksen. Monet väittävät, että kuvatut ominaisuudet ovat olemassa olevien automaatiotyökalujen kehitystä, eivätkä vallankumouksellista uutta uhkaa.

“Kieltäydyn edelleen uskomasta, että hyökkääjät pystyvät jotenkin saamaan nämä mallit hyppäämään vanteiden läpi, jota kukaan muu ei pysty”, sanoi Phobos Groupin perustaja Dan Tentler.

Riippumaton tutkija Kevin Beaumontti ei keksinyt tätä uhkaa. mitään uutta. Tätä skeptisyyttä ruokkii kampanjan alhainen onnistumisprosentti. Anthropic vahvisti, että vain”kourallinen”tunkeutumisesta onnistui ennen sulkemista.

Näytä Mastodonissa

Alan huomattavat hahmot lisäsivät pian vastareaktiota. Metan johtava tekoälytutkija Yann LeCun kritisoi ilmoitusta jyrkästi nimellä “Regulatory capture” ja vihjasi, että uhkaa vahvistettiin vaikuttamaan tulevaan tekoälysääntelyyn.

Sinua leikkivät ihmiset, jotka haluavat kaapata sääntelyn.
He pelottelevat kaikkia epäilyttävillä tutkimuksilla, jotta avoimen lähdekoodin mallit suljetaan pois.

— Yann LeCun (@ylecun) 2025

Hänen kommenttinsa lisää kiistaan uuden ulottuvuuden kyseenalaistamalla Anthropicin motiivit. Ehkä vahingollisin kritiikki tulee kuitenkin Anthropicin omasta raportista, jossa tunnustetaan tekoälyn suorituskyvyn kriittinen rajoitus.

Yhtiö totesi, että”Claude usein liioitteli löydöksiä ja toisinaan keksi tietoja itsenäisten toimintojen aikana… Tämä on edelleen este täysin autonomisille kyberhyökkäyksille, jotka ovat suoraan riippumattomien autonomisten agenttien ja väkevöidympien agenttien myöntämisestä.”

tukee näkemystä, että merkittävää inhimillistä valvontaa tarvitaan edelleen.

Kaksikäyttöinen dilemma: tekoäly sekä aseena että kilpenä

Saadun itsenäisyyden tarkasta tasosta huolimatta tapahtuma pakottaa ottamaan huomioon agentti-AI:n kaksikäyttöisen luonteen. Samat ominaisuudet, joiden avulla tekoäly voi hyökätä verkkoa vastaan, ovat korvaamattomia sen puolustamisessa.

Paljastus tulee vain kuukausia sen jälkeen, kun Anthropic itse esitti uuden turvallisuuskehyksen tekoälyagenteille, mikä korostaa tällaisten periaatteiden pakottamista päättäväisiä vastustajia vastaan. Nopea innovointi hyökkäävässä tekoälyssä näyttää ylittävän alan kyvyn mukauttaa puolustuksiaan.

Turvallisuusasiantuntijat huomauttavat, että puolustavia tekoälyagentteja on jo otettu käyttöön Security Operations Centerissä (SOC). Palo Alto Networkin Cortex AgentiX:n kaltaiset alustat on suunniteltu automatisoimaan uhkien havaitseminen ja reagointi, mikä auttaa torjumaan maailmanlaajuista kyberturvallisuustaitojen puutetta.

Anthropic itse käytti Claudea tietojen analysointiin tutkimuksensa aikana, mikä osoitti tekniikan puolustavan hyödyn. Yhtiö vaatii nyt tekoälyllä toimivien puolustustyökalujen nopeutettua käyttöönottoa.”Jos emme anna puolustajille erittäin merkittävää pysyvää etua, olen huolissani, että saatamme hävitä tämän kilpailun”, varoitti Logan Graham, joka johtaa Anthropicin katastrofaalisen riskin tiimiä.

Kilpailu hyökkäävän ja puolustavan tekoälyn välillä on selvästi voimistunut, ja tapahtuma osoittaa, että keskustelu sen todellisesta potentiaalista on kaukana päätöksestä.

Categories: IT Info