Openai ha tomado medidas decisivas contra las amenazas cibernéticas patrocinadas por el estado, prohibiendo múltiples cuentas vinculadas a actores en China y Corea del Norte. En un informe de amenaza publicado el 8 de octubre, la compañía reveló que estos grupos utilizaron sus modelos de IA para redactar propuestas para herramientas de vigilancia, desarrollar campañas de phishing y ayudar en la creación de malware.

El movimiento subrayan un frente creciente en la guerra fría de AI, donde OpenAi trabaja activamente para evitar que su tecnología sea inaugurada por los regímenes autoritarios. Sus salvaguardas bloquearon con éxito las solicitudes directas de código malicioso y que No se proporcionaron capacidades novedosas .

Los actores respaldados por el estado explotan ai para la vigilancia y phishing

href=”https://cdn.openai.com/threat-intelligence-reports/7d662b68-952f-4dfd-a2f2-fe55b041cc4a/disrupting-malicious-uses-of-ai-october-2025.pdf”apuntar=”_ en blanco” a gobiernos autoritarios. Los actores vinculados a los chinos fueron atrapados utilizando ChatGPT para diseñar sistemas de monitoreo de redes sociales a gran escala. Una propuesta alarmante tuvo como objetivo crear un”modelo de advertencia de entrada de alto riesgo relacionado con los uigures”para rastrear el viaje de individuos específicos.

Otras cuentas vinculadas a China usaron la IA para la recolección de inteligencia de código abierto, intentando identificar a los críticos del gobierno y encontrar sus fuentes de financiación. Esta actividad representa un esfuerzo claro para utilizar la tecnología avanzada para la vigilancia estatal y la supresión de la disidencia, según los hallazgos de la compañía. Aprovecharon el chatgpt para investigar técnicas de phishing, robo de credenciales y desarrollo de malware, con un enfoque específico en los macOS de Apple. Sus consultas implicaron depurar el código malicioso y explorar estrategias de ingeniería social.

una”zona gris”de mal uso: eficiencia sobre la novedad

La investigación de OpenAi revela una visión crucial del estado actual de CiberRimen asistido: los actores estatales no están desarrollando superwaponas novedosas. En su lugar,

La compañía no encontró evidencia de que sus modelos proporcionen a los atacantes nuevas tácticas o capacidades ofensivas que no podrían obtener en otro lugar.

Este enfoque a menudo funciona en lo que OpenAI llama una”zona gris”de actividad dual. Una parte significativa del uso malicioso involucraba las indicaciones para tareas aparentemente inocuas como traducir texto, modificar el código o crear un sitio web.

Estas solicitudes solo se vuelven amenazantes según el contexto y la intención del usuario, planteando un desafío de detección complejo.

Los operadores de lenguaje coreano, por ejemplo, hicieron muchas solicitudes que podrían involucrar aplicaciones legítimas como el desarrollo de software. Sin embargo, como señala el informe, estas actividades”tienen un significado diferente cuando se reutiliza un actor de amenaza”. El objetivo no era la invención, sino la aceleración de las operaciones cibernéticas existentes.

De manera similar, el grupo de phishing ligado a China utilizó AI para buscar eficiencia incremental. La principal ventaja que obtuvieron fue de la”fluidez lingüística, localización y persistencia”. Esto se tradujo en generar correos electrónicos con menos errores de idioma, crear”código de pegamento más rápido”y hacer ajustes más rápidos cuando sus ataques iniciales fallaron.

El objetivo final era la velocidad y la escala. Para estos actores, el éxito significó producir correos electrónicos de phishing listos para enviar y lograr”ciclos de iteración acortados para el código de rutina y la automatización”. Este enfoque en aumentar la artesanía tradicional, en lugar de crear nuevas formas de ataque, es un hallazgo clave de la investigación de OpenAI.

A lo largo de estas operaciones, Operai enfatizó que sus salvaguardas se mantuvieron firmes constantemente contra las amenazas directas. El informe indica que sus modelos”rechazaron constantemente las solicitudes maliciosas”. En el caso de un desarrollador de malware de habla rusa, el sistema negó específicamente las solicitudes directas de exploits y keyloggers.

Sin embargo, los actores de amenaza se están adaptando. El informe destaca las instancias de”adaptación y ofuscación”, donde los usuarios maliciosos cambian su comportamiento para evitar la detección. Algunas redes de estafas, conscientes de las discusiones en línea sobre los patrones de texto generados por IA, instruyeron específicamente al modelo para eliminar las placas EM para que la salida parezca más humana.

Esta dinámica ilustra el desafío central para las plataformas AI. Según OpenAi. La defensa efectiva requiere un”enfoque matizado e informado que se centre en los patrones de comportamiento del actor de amenaza en lugar de interacciones modelo aisladas”. Distinguir una consulta de codificación benigna de una destinada a refinar malware es la nueva línea de frente en la seguridad de la plataforma.