La reciente afirmación de Anthropic de que piratas informáticos patrocinados por el Estado chino utilizaron su Claude AI para llevar a cabo una campaña de ciberespionaje casi autónoma se enfrenta a una reacción importante. La compañía de IA informó el 13 de noviembre que el ataque fue automatizado en un 80-90%, una cifra que los investigadores de seguridad cuestionaron de inmediato.

Los críticos argumentan que el papel de la IA es exagerado y comparable a las herramientas existentes, mientras que figuras prominentes como Yann LeCun de Meta descartan el anuncio como”teatro regulatorio”. Esta disputa pone de relieve un creciente debate sobre las verdaderas capacidades de la IA en la guerra cibernética y los motivos detrás de revelaciones de tan alto perfil.

¿Una campaña “orquestada por IA” o simplemente automatización avanzada?

En una revelación que conmovió a la industria de la seguridad, Anthropic detalló recientemente una operación sofisticada realizada por un grupo al que rastrea como GTG-1002.

La operación, que tuvo lugar a mediados de septiembre, supuestamente tuvo como objetivo alrededor de 30 organizaciones globales. La afirmación central de Anthropic es que su Claude AI fue utilizada como arma para ejecutar entre el 80% y el 90% del ciclo de vida del ataque con una mínima supervisión humana.

Según la compañía,”creemos que este es el primer caso documentado de un ciberataque a gran escala ejecutado sin una intervención humana sustancial”. Tal desarrollo representa un salto importante con respecto a los usos anteriores de la IA para tareas más simples, como la elaboración de correos electrónicos de phishing o la tendencia menos autónoma de”piratería de vibraciones”que Winbuzzer cubrió anteriormente.

Detrás de las sensacionales afirmaciones se esconde una realidad técnica más compleja. Según se informa, los atacantes crearon un marco de orquestación personalizado utilizando el protocolo de contexto modelo (MCP) para descomponer la intrusión en una serie de tareas discretas y aparentemente benignas.

Este método permitió a la IA pasar desapercibida. Un elemento crucial fue eludir las funciones de seguridad de Claude mediante una inteligente técnica de jailbreak.”En este caso, lo que estaban haciendo era pretender trabajar para organizaciones legítimas de pruebas de seguridad”, explicó Jacob Klein, jefe de inteligencia de amenazas de Anthropic.

Al convencer a la IA de que era parte de una prueba de penetración legítima, los operadores la engañaron para que realizara acciones maliciosas. Este marco supuestamente permitió a la IA realizar “miles de solicitudes por segundo”, una velocidad imposible para los piratas informáticos humanos.

La comunidad de seguridad retrocede, citando exageraciones y “captura regulatoria”

El escepticismo aumentó rápidamente desde investigadores veteranos que cuestionaron la novedad y el impacto del ataque. Muchos argumentan que las capacidades descritas son una evolución de las herramientas de automatización existentes, no una nueva amenaza revolucionaria.

“Sigo negándome a creer que los atacantes sean de alguna manera capaces de lograr que estos modelos superen obstáculos que nadie más puede”, dijo Dan Tentler, fundador ejecutivo de Phobos Group.

El investigador independiente Kevin Beaumont se hizo eco de este sentimiento y afirmó que los actores de la amenaza no estaban inventando nada nuevo. Lo que alimenta este escepticismo es la baja tasa de éxito de la campaña; Anthropic confirmó que sólo un”puñado”de las intrusiones tuvieron éxito antes de ser cerradas.

Ver en Mastodon

Prominentes figuras de la industria pronto intensificaron la reacción. El jefe científico de IA de Meta, Yann LeCun, criticó duramente el anuncio como lo que llamó”captura regulatoria”, sugiriendo que la amenaza se estaba amplificando para influir en la futura regulación de la IA.

Estás siendo engañado por personas que quieren captura regulatoria.
Están asustando a todo el mundo con estudios dudosos para que los modelos de código abierto sean regulados y eliminados.

— Yann LeCun (@ylectun) 14 de noviembre de 2025

Su comentario añade una nueva dimensión a la controversia al cuestionar los motivos de Anthropic. Quizás la crítica más dañina, sin embargo, proviene del propio informe de Anthropic, que reconoce una limitación crítica en el desempeño de la IA.

La compañía señaló que”Claude frecuentemente exageraba los hallazgos y ocasionalmente fabricaba datos durante las operaciones autónomas… Esto sigue siendo un obstáculo para los ciberataques totalmente autónomos”.

Esta admisión socava directamente la narrativa de un agente autónomo casi perfecto y respalda la opinión de que aún se requiere una supervisión humana significativa.

El dilema del doble uso: la IA como arma y escudo

Independientemente del nivel exacto de autonomía alcanzado, el incidente obliga a tener en cuenta la naturaleza de doble uso de la IA agente. Las mismas capacidades que permiten a una IA atacar una red son invaluables para defenderla.

La divulgación se produce pocos meses después de que Anthropic presentara un nuevo marco de seguridad para los agentes de IA, destacando el desafío de hacer cumplir tales principios contra adversarios determinados. La rápida innovación en IA ofensiva parece estar superando la capacidad de la industria para adaptar sus defensas.

Los expertos en seguridad señalan que ya se están desplegando agentes de IA defensiva en los Centros de Operaciones de Seguridad (SOC). Plataformas como Cortex AgentiX de Palo Alto Network están diseñadas para automatizar la detección y respuesta a amenazas, lo que ayuda a contrarrestar la escasez global de habilidades en ciberseguridad.

La propia Anthropic utilizó a Claude para analizar datos durante su investigación, lo que demuestra la utilidad defensiva de la tecnología. La compañía ahora pide una adopción acelerada de herramientas defensivas impulsadas por IA.”Si no permitimos que los defensores tengan una ventaja permanente muy sustancial, me preocupa que tal vez perdamos esta carrera”, advirtió Logan Graham, quien dirige el equipo de riesgo catastrófico de Anthropic.

La carrera entre la IA ofensiva y defensiva se está intensificando claramente, y el incidente muestra que el debate sobre su verdadero potencial está lejos de estar resuelto.

Categories: IT Info