La firma de

AI Anthrope reveló hoy que sus modelos AI avanzados están siendo armados activamente por los cibercriminales para ataques sofisticados y de extremo a extremo. En un nuevo informe de inteligencia de amenazas, la compañía detalla una tendencia inquietante que llama”hacking de ambas”, donde un solo actor malicioso utiliza un agente de IA como Claude como un consultor técnico y un operador activo. Permite a los actores de amenaza con habilidades limitadas para construir ransomware, analizar datos robados e incluso ayudar a los agentes de Corea del Norte a asegurar fraudulentamente empleos tecnológicos de alto pago para financiar programas patrocinados por el estado. Esto marca una evolución significativa en el uso de AI para fines maliciosos.

Informe de Anthrope, Publicado hoy , confirma un cambio de paradigma en el cambio de cybercrime.”Los sistemas de IA agente están siendo armados”. Esto mueve la amenaza más allá de la simple asistencia a la ejecución activa de los ataques de los agentes de AI.

‘vibe-hacking”El informe presenta el término”hacking de ambientes”como una metodología que representa una evolución preocupante en el delito cibernético asistido por AI. Este enfoque ve que la IA sirve como un consultor técnico y un operador activo, lo que permite ataques que serían mucho más difíciles para un individuo ejecutar manualmente. Marca un cambio fundamental de la IA como una herramienta simple a la IA como socio en la operación.

Detalles antrópicos (rastreado como GTG-2002) donde un solo actor utilizó su agente de código Claude para realizar una campaña de extorsión de datos escala. En solo un mes, la operación comprometió al menos a 17 organizaciones distintas en sectores como la atención médica, los servicios de emergencia y el gobierno.

La IA no solo siguió un guión. Si bien el actor proporcionó un archivo de guía con tácticas preferidas, el agente todavía estaba aprovechado para tomar decisiones tácticas y estratégicas. Determinó cómo penetrar mejor en las redes, qué datos exfiltrarse y cómo elaborar demandas de extorsión psicológicamente específicas.

La operación demostró una integración sin precedentes de IA en todo el ciclo de vida del ataque. En la fase de reconocimiento, el agente automatizó el escaneo de miles de puntos finales VPN para identificar sistemas vulnerables. Durante la intrusión, proporcionó asistencia en tiempo real, la identificación de sistemas críticos como controladores de dominio y la extracción de credenciales.

El código Claude también se utilizó para el desarrollo de malware personalizado. Creó versiones ofuscadas de herramientas de túneles existentes para evadir el defensor de Windows e incluso desarrolló un código proxy TCP completamente nuevo desde cero. Cuando los intentos de evasión inicial fallaron, la IA sugirió nuevas técnicas como el cifrado de cadena y el nombre de archivo disfrazando sus ejecutables maliciosos.

Después de exfiltrar datos confidenciales, incluidos registros financieros, credenciales gubernamentales e información de salud: el papel de IA pasó a la monetización. Analizó los datos robados para crear estrategias de extorsión de múltiples niveles, generando”planes de ganancias”detallados que incluían chantaje organizacional directo, ventas de datos a otros delincuentes y presión dirigida a las personas cuyos datos estaban comprometidos. href=”https://www.theverge.com/ai-artificial-intelligence/766435/anthrópico-claude-threat-intelligence-report-ai-cybersecurity-achacking”Target=”_ en blanco”> dijo el borde ,”Este es el uso más sofisticado de agentes he visto… La IA calculó cantidades óptimas de rescate basadas en su análisis, con demandas que a veces superan los $ 500,000.

Esta nueva capacidad significa que”ahora, un solo individuo puede conducir, con la ayuda de sistemas de agente”. Esto altera fundamentalmente el panorama de amenazas, lo que hace que sea más difícil evaluar la sofisticación de un atacante basado en la complejidad de su operación. href=”https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf”target=”_ en blanco”> Informe antrópico es el surgimiento de”malwar sin código”, una transformación habilitada por ai que remueva los cyercriMe. El informe establece:”La IA reduce las barreras al delito cibernético sofisticado”. Este no es un riesgo teórico; La compañía identificó a un actor con sede en el Reino Unido (GTG-5004) que encarna perfectamente este nuevo paradigma.

Este individuo, activo en foros web oscuros como Dread y CryptBB desde al menos en enero de 2025, demostró una”dependencia aparentemente completa de AI para desarrollar malware funcional”. El actor parecía incapaz de implementar un cifrado complejo o solucionar problemas técnicos sin la ayuda de Claude, pero estaba comercializando con éxito el ransomware capaz. Se ofreció una DLL y ejecutable de ransomware básico por $ 400, un kit RaaS completo con una consola PHP segura y herramientas de comando y control por $ 800, y un cripter totalmente indetectable (FUD) para binarios de Windows para $ 1,200.

Esto efectivamente esto es efectivamente democratiza ciberdina cibernal de ciberdinto avanzada, poniendo herramientas listas y preparadas en las manos de las manos menos sólidas de las manos menos sólidas. El actor mantuvo la seguridad operativa distribuyendo a través de un sitio.donión y utilizando un correo electrónico cifrado, afirmando engañosamente que los productos eran”solo para uso educativo y de investigación”, mientras que la publicidad en foros penales.

A pesar de la aparente falta de experiencia profunda del operador, el malware generado por AI estaba altamente sofisticado. Sus características principales incluían un cifrado de transmisión Chacha20 para el cifrado de archivos, el uso de la API de CNC de Windows para la gestión de claves RSA y los mecanismos anti-recuperación como la eliminación de copias de sombra de volumen para evitar una restauración fácil. Estos métodos utilizan la invocación directa de Syscall para evitar los ganchos de API en modo de usuario comúnmente utilizados por las soluciones EDR. Esto representa una transformación operativa significativa donde la competencia técnica se subcontrata a la IA en lugar de adquirir a través de la experiencia.

Este incidente es solo un ejemplo de una tendencia más amplia de la industria de la armadura de IA. Como se han detallado los informes anteriores de WinBuzzer, este cambio es visible en todo el panorama de amenazas, desde los atacantes que usaron el V0 de Vercel para los sitios de”phishing instantáneos”hasta la evolución de las herramientas como WORMGPT, que ahora secuestran modelos legítimos como Grok y Mixtral.

Un nuevo frontal en el estado de los estados y atacantes a los atacantes de Attacelerados

. Campaña sistemática y sofisticada de los trabajadores de TI de Corea del Norte que están aprovechando a Claude para obtener y mantener fraudulentamente trabajos tecnológicos de alto pago en las compañías Fortune 500. Según la investigación antrópica, estas operaciones están diseñadas para evadir las sanciones internacionales y generar cientos de millones de dólares anuales para financiar los programas de armas de la nación.

El hallazgo más sorprendente es la”dependencia completa de los operativos de la IA para funcionar en roles técnicos”. Estas personas parecen incapaces de escribir código básico, problemas de depuración o incluso comunicarse profesionalmente sin asistencia constante de IA. Esto crea un nuevo paradigma en el que la competencia técnica no se posee, sino completamente simulada.

La operación de empleo fraudulento sigue un ciclo de vida multifase, con asistencia de IA en cada etapa. En la fase inicial de”desarrollo de la persona”, los operadores usan Claude para generar antecedentes profesionales convincentes, crear carteras técnicas con historias de proyectos e investigar las referencias culturales para parecer auténticas.

Durante el proceso de”aplicación y entrevista”, la IA se utiliza para adaptar las curvas a las descripciones de trabajo específicas, elaborarse, elaborando cartas de compras y proporcionar asistencias en el tiempo real durante las evaluaciones de codificación técnica. Esto les permite pasar con éxito entrevistas para los roles para los que no están calificados.

Una vez contratados, la dependencia se intensifica. En la fase de”mantenimiento del empleo”, los agentes confían en la IA para entregar un trabajo técnico real, participar en las comunicaciones del equipo y responder a las revisiones de código, mantener la ilusión de la competencia. Los datos de Anthrope muestran que aproximadamente el 80% del uso de Claude de los operativos es consistente con el empleo activo.

Este enfoque habilitado para la AI evita el cuello de botella tradicional de años de capacitación especializada en instituciones de élite como Kim Il Sung University. Históricamente, esto limitó el número de operativos que el régimen podría implementar. Ahora, la IA ha eliminado efectivamente esta restricción, permitiendo a las personas con habilidades limitadas asegurar y ocupar posiciones de ingeniería lucrativa.

El informe señala que”un solo operador puede lograr el impacto de un equipo cibercriminal completo a través de la asistencia de IA”. Esta arma de la IA no está sucediendo en el vacío. Microsoft ya advirtió que”la IA ha comenzado a reducir la barra técnica para los actores de fraude y delitos cibernéticos… haciendo que sea más fácil y más barato generar contenido creíble para los ataques cibernéticos a un ritmo cada vez más rápido”.

Esta tendencia más amplia es evidente en la reciente aumento de los ataques de phishing de AI-AI-ASIS y las campañas de malware que explotan mis inquisitivos. En respuesta a sus hallazgos, Anthrope ha prohibido las cuentas maliciosas y ha mejorado sus herramientas para correlacionar los indicadores conocidos de compromiso. La compañía también está compartiendo indicadores técnicos con socios de la industria para ayudar a prevenir el abuso en todo el ecosistema.

Categories: IT Info