Ang kamakailang pag-angkin ng Anthropic na ang mga hacker na na-sponsor ng estado ng China ay ginamit ang Claude AI upang magsagawa ng halos autonomous cyber-espionage campaign ay nahaharap sa makabuluhang backlash. Iniulat ng kumpanya ng AI noong Nobyembre 13 na ang pag-atake ay 80-90% na awtomatiko, agad na tinanong ng isang mananaliksik sa seguridad. Ang pagtatalo na ito ay nagtatampok ng isang lumalagong debate tungkol sa totoong mga kakayahan ng AI sa digma sa cyber at ang mga motibo sa likod ng tulad ng mga high-profile na kampanya. GTG-1002. Ang sentral na assertion ng Anthropic ay ang Claude AI na ito ay armas upang isagawa ang 80-90% ng pag-atake ng lifecycle na may kaunting pangangasiwa ng tao. Ang nasabing pag-unlad ay kumakatawan sa isang pangunahing paglukso mula sa naunang paggamit ng AI para sa mas simpleng mga gawain tulad ng paggawa ng mga email sa phishing o ang hindi gaanong awtonomikong”vibe hacking”na winbuzzer na sakop dati. Ang mga umaatake ay naiulat na nagtayo ng isang pasadyang balangkas ng orkestra gamit ang Model Context Protocol (MCP) upang mabulok ang panghihimasok sa isang serye ng discrete, tila mga benign na gawain.

Pinapayagan ng pamamaraang ito ang AI na lumipad sa ilalim ng radar. Ang isang mahalagang elemento ay ang pag-iwas sa mga tampok ng kaligtasan ni Claude sa pamamagitan ng isang matalinong pamamaraan ng jailbreaking.”Sa kasong ito, kung ano ang kanilang ginagawa ay nagpapanggap na magtrabaho para sa mga lehitimong organisasyon ng pagsubok sa seguridad,”paliwanag ni Jacob Klein, pinuno ng banta ng anthropic. Ang balangkas na ito ay sinasabing nagpapagana sa AI na gumawa ng”libu-libong mga kahilingan sa bawat segundo,”isang bilis na imposible para sa mga hacker ng tao. href=”https://arstechnica.com/security/2025/11/researchers-question-anthropic-claim-that-ai-assisted-attack-was-90-autonomous/”target=”_ blangko”> beterano na mga mananaliksik na nagtanong sa bagong bagay at epekto ng pag-atake . Marami ang nagtaltalan na ang mga kakayahan na inilarawan ay isang ebolusyon ng umiiral na mga tool sa automation, hindi isang rebolusyonaryong bagong banta. Bago. Ang pag-aalinlangan na ito ay ang mababang rate ng tagumpay ng kampanya; Kinumpirma lamang ni Anthropic ang isang”dakot”ng mga panghihimasok ay matagumpay bago isara. Ang Chief AI Scientist ng Meta na si Yann Lecun, ay mahigpit na pinuna ang anunsyo kung ano ang tinawag niyang”regulasyon sa regulasyon”, na nagmumungkahi na ang banta ay pinalakas upang maimpluwensyahan ang paparating na regulasyon ng AI.
Tinatakot nila ang lahat na may mga kahina-hinala na pag-aaral upang ang mga bukas na mapagkukunan ng mga modelo ay na-regulate nang wala. target=”_ blangko”> Nobyembre 14, 2025

Marahil ang pinaka nakakapinsalang pagpuna, gayunpaman, ay nagmula sa sariling ulat ng Anthropic, na kinikilala ang isang kritikal na limitasyon sa pagganap ng AI. Ang pananaw na kinakailangan pa rin ng makabuluhang pangangasiwa ng tao. Ang parehong mga kakayahan na nagpapahintulot sa isang AI na pag-atake ng isang network ay napakahalaga para sa pagtatanggol nito. Ang mabilis na pagbabago sa nakakasakit na AI ay lilitaw na lumampas sa kakayahan ng industriya na iakma ang mga panlaban nito. Ang mga platform tulad ng Cortex Agentix ng Palo Alto Network ay idinisenyo upang awtomatiko ang pagbabanta at pagtugon, na tumutulong upang kontrahin ang kakulangan sa global na kasanayan sa cybersecurity. Tumatawag na ngayon ang kumpanya para sa isang pinabilis na pag-ampon ng mga tool na nagtatanggol na AI-powered.”Kung hindi namin paganahin ang mga tagapagtanggol na magkaroon ng isang napakalaking permanenteng kalamangan, nababahala ako na baka mawala tayo sa karera na ito,”binalaan ni Logan Graham, na humahantong sa nakakasakit na koponan ng panganib ng Anthropic.

Categories: IT Info