Openai ha tomado medidas decisivas contra las amenazas cibernéticas patrocinadas por el estado, prohibiendo múltiples cuentas vinculadas a actores en China y Corea del Norte. En un informe de amenaza publicado el 8 de octubre, la compañía reveló que estos grupos utilizaron sus modelos de IA para redactar propuestas para herramientas de vigilancia, desarrollar campañas de phishing y ayudar en la creación de malware.
El movimiento subrayan un frente creciente en la guerra fría de AI, donde OpenAi trabaja activamente para evitar que su tecnología sea inaugurada por los regímenes autoritarios. Sus salvaguardas bloquearon con éxito las solicitudes directas de código malicioso y que No se proporcionaron capacidades novedosas .
Los actores respaldados por el estado explotan ai para la vigilancia y phishing
href=”https://cdn.openai.com/threat-intelligence-reports/7d662b68-952f-4dfd-a2f2-fe55b041cc4a/disrupting-malicious-uses-of-ai-october-2025.pdf”apuntar=”_ en blanco” a gobiernos autoritarios. Los actores vinculados a los chinos fueron atrapados utilizando ChatGPT para diseñar sistemas de monitoreo de redes sociales a gran escala. Una propuesta alarmante tuvo como objetivo crear un”modelo de advertencia de entrada de alto riesgo relacionado con los uigures”para rastrear el viaje de individuos específicos.
Otras cuentas vinculadas a China usaron la IA para la recolección de inteligencia de código abierto, intentando identificar a los críticos del gobierno y encontrar sus fuentes de financiación. Esta actividad representa un esfuerzo claro para utilizar la tecnología avanzada para la vigilancia estatal y la supresión de la disidencia, según los hallazgos de la compañía. Aprovecharon el chatgpt para investigar técnicas de phishing, robo de credenciales y desarrollo de malware, con un enfoque específico en los macOS de Apple. Sus consultas implicaron depurar el código malicioso y explorar estrategias de ingeniería social.