Hoje, a
AI, a empresa antrópica revelou que seus modelos avançados de IA estão sendo armados ativamente por criminosos cibernéticos para ataques sofisticados e de ponta a ponta. Em um novo relatório de inteligência de ameaças, a empresa detalha uma tendência perturbadora que chama de”hacking vibe”, onde um único ator malicioso usa um agente de IA como Claude como consultor técnico e um operador ativo. Ele permite que atores de ameaças com habilidades limitadas construam ransomware, analisem dados roubados e até ajudem os agentes norte-coreanos a garantir empregos de tecnologia de alto pagamento de altíssimos para financiar programas patrocinados pelo Estado. Isso marca uma evolução significativa no uso de IA para propósitos maliciosos.”Os sistemas Agentic AI estão sendo armados.”Isso move a ameaça além da simples assistência à execução ativa dos ataques por agentes da IA.
O relatório apresenta o termo”hacking vibe”como uma metodologia que representa uma evolução preocupante no crime cibernético assistido por A.. Essa abordagem vê a IA servir como consultor técnico e operador ativo, permitindo ataques que seriam muito mais difíceis para um indivíduo executar manualmente. Ele marca uma mudança fundamental da IA como uma ferramenta simples para a IA como parceiro na operação. Operação cibercriminal (rastreado como GTG-2002), onde um único ator usou seu agente de código Claude para conduzir uma campanha de extorsão de dados em escala. Dentro de apenas um mês, a operação comprometeu pelo menos 17 organizações distintas em setores como assistência médica, serviços de emergência e governo.
A IA não estava apenas seguindo um roteiro. Enquanto o ator forneceu um arquivo de guia com táticas preferidas, o agente ainda estava alavancado para tomar decisões táticas e estratégicas. Determinou como melhor penetrar em redes, quais dados exfiltrar e como criar demandas de extorsão psicologicamente direcionadas.
A operação demonstrou uma integração sem precedentes de IA em todo o ciclo de vida do ataque. Na fase de reconhecimento, o agente automatizou a varredura de milhares de pontos de extremidade da VPN para identificar sistemas vulneráveis. Durante a intrusão, forneceu assistência em tempo real, identificando sistemas críticos como controladores de domínio e credenciais de extração.
O código Claude também foi usado para o desenvolvimento personalizado de malware. Ele criou versões ofuscadas das ferramentas de tunelamento existentes para evitar o Defender do Windows e até desenvolveram o código de proxy TCP totalmente novo. Quando as tentativas iniciais de evasão falharam, a IA sugeriu novas técnicas, como criptografia de string e nome do arquivo, disfarçar-se para disfarçar seus executáveis maliciosos. Ele analisou os dados roubados para criar estratégias de extorsão de várias camadas, gerando”planos de lucro”detalhados que incluíam chantagem organizacional direta, vendas de dados para outros criminosos e pressão direcionada sobre indivíduos cujos dados foram comprometidos. href=”https://www.theverge.com/ai-artificial-intelligence/766435/antrópica-claude-heatheat-intelligence-report-ai-cybersecurity-hacking”Target=”_ em branco”> Disse ao The Verge ,”esse é o mais sofisticado”A IA calculou os valores ideais de resgate com base em sua análise, com demandas às vezes excedendo US $ 500.000. Isso altera fundamentalmente o cenário das ameaças, dificultando a avaliação da sofisticação de um invasor com base na complexidade de sua operação. href=”https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf”Target=”_ Blank”> Anthrópico Relatório é o RESPERAÇÃO DE REMELHADO REMERATER””A REMERABLEATS”A REMERABLEIRO”A REMERATION”A REMERATION”A REMERATION”. O relatório afirma:”AI reduz as barreiras ao sofisticado crime cibernético”. Este não é um risco teórico; A empresa identificou um ator do Reino Unido (GTG-5004) que incorpora perfeitamente esse novo paradigma. O ator parecia incapaz de implementar criptografia complexa ou solucionar problemas técnicos sem a assistência de Claude, mas estava comercializando com sucesso e vendendo ransomware capaz. Uma DLL básica de ransomware e executável foram oferecidos por US $ 400, um kit RAAS completo com um console PHP seguro e ferramentas de comando e controle por US $ 800, e um crypter totalmente indetectável (FUD) para binários de Windows por US $ 1,200. O ator manteve a segurança operacional distribuindo um site.onion e usando email criptografado, alegando enganosamente que os produtos eram”para uso educacional e de pesquisa apenas”enquanto anunciava os fóruns criminais. Seus principais recursos incluíram uma cifra de fluxo chacha20 para criptografia de arquivo, o uso da API do Windows CNG para gerenciamento de chaves RSA e mecanismos de anti-recuperação, como a exclusão de cópias de sombra de volume para evitar a fácil restauração. Esses métodos usam a invocação direta do syscall para ignorar os ganchos da API do modo de usuário comumente usados pelas soluções EDR. Isso representa uma transformação operacional significativa, onde a competência técnica é terceirizada para a IA, em vez de adquirida através da experiência. Como os relatórios anteriores de WinBuzzer detalhados, essa mudança é visível em toda a paisagem das ameaças, de atacantes que usaram os locais de”phishing instantâneo”para a evolução de ferramentas como o wormgpt, que agora sequestram modelos legítimos como Grok e Mixtral. Campanha sistemática e sofisticada de trabalhadores norte-coreanos de TI que estão alavancando Claude para obter fraudulentamente e manter empregos de tecnologia bem remunerados nas empresas da Fortune 500. De acordo com a investigação antrópica, essas operações são projetadas para evitar sanções internacionais e gerar centenas de milhões de dólares anualmente para financiar os programas de armas do país. Esses indivíduos parecem incapazes de escrever código básico, depurar problemas ou até se comunicar profissionalmente sem assistência constante de IA. Isso cria um novo paradigma onde a competência técnica não é possuída, mas totalmente simulada. Na fase inicial do “desenvolvimento da persona”, os operadores usam Claude para gerar origens profissionais convincentes, criar portfólios técnicos com histórias de projetos e pesquisar referências culturais para parecer autênticas. Isso permite que eles passem entrevistas com sucesso para funções pelas quais não são qualificados.
Uma vez contratado, a dependência se intensifica. Na fase”Manutenção do emprego”, os agentes dependem da IA para fornecer trabalhos técnicos reais, participarem das comunicações da equipe e responder às revisões de código, mantendo a ilusão de competência. Os dados da Anthropic mostram que aproximadamente 80% do uso de Claude dos agentes é consistente com o emprego ativo. Historicamente, isso limitou o número de agentes que o regime poderia implantar. Agora, a IA removeu efetivamente essa restrição, permitindo que indivíduos com habilidades limitadas protejam e ocupem posições lucrativas de engenharia. Essa arma da IA não está acontecendo no vácuo. A Microsoft já alertou que “a IA começou a diminuir a barra técnica para atores de fraude e crime cibernético… tornando mais fácil e barato gerar conteúdo crível para ataques cibernéticos a uma taxa cada vez mais rápida. Em resposta às suas descobertas, a Anthrópica proibiu as contas maliciosas e melhorou sua ferramenta para correlacionar indicadores conhecidos de compromisso. A empresa também está compartilhando indicadores técnicos com parceiros do setor para ajudar a prevenir abusos em todo o ecossistema.