A Microsoft revelou na terça-feira o Project IRE, um novo agente de IA que engenharia reversa autonomamente e classifica o software malicioso. A medida aumenta a corrida armamentista de segurança cibernética da IA, posicionando o caçador de malware da Microsoft contra o agente”Big Sleep”do Google, que se concentra em encontrar falhas de software. Isso permite que as equipes de segurança escalarem suas defesas contra ataques sofisticados e orientados pela IA e liberam especialistas humanos para se concentrar nas ameaças mais críticas. Enquanto o Google procura vulnerabilidades no código, a Microsoft agora está segmentando os próprios binários maliciosos. Padrão de análise de malware
A Microsoft diz que o novo sistema”automatiza o que é considerado o padrão-ouro na classificação de malware: engenharia totalmente reversa de um arquivo de software sem nenhuma pista sobre sua origem ou propósito”. The prototype emerged from a collaboration between Microsoft Research, Microsoft Defender Research, and Microsoft Discovery & Quantum, combining AI research with operational security Especialização. Sua arquitetura permite raciocinar em vários níveis, desde a análise binária de baixo nível até a interpretação de alto nível do comportamento do código, distinguindo-o de ferramentas que simplesmente correspondem aos padrões.
O processo de análise começa com uma triagem, onde as ferramentas automatizadas identificam o tipo e a estrutura do arquivo. A partir daí, o sistema reconstrói o gráfico de fluxo de controle do software usando estruturas de fonte aberta como ghidra e Revisão humana e refinamento do sistema Verifica suas reivindicações contra uma base de conhecimento de declarações de especialistas dos próprios engenheiros de malware da Microsoft. Em um exemplo, foi o primeiro sistema da Microsoft-humano ou máquina-para autorar um relatório de ameaça forte o suficiente para acionar um bloco automático por conta própria. Essa baixa taxa falsa-positiva sugere um claro potencial de implantação em operações de segurança. Embora o recall fosse moderado, sua precisão nesses casos difíceis destaca seu potencial de aumentar a análise humana. Seu foco na classificação de malware contrasta acentuadamente com o projeto Big Sleep do Google, que recentemente ganhou atenção para descobrir autonomamente 20 novas vulnerabilidades em software de código aberto amplamente utilizado, como FFMPEG e ImageMagick. O projeto provou seu potencial primeiro no final de 2024, descobrindo um bug no mecanismo de banco de dados SQLite. As apostas foram levantadas consideravelmente em julho de 2025, quando o Google revelou que o Big Sleep neutralizou proativamente uma ameaça iminente, CVE-2025-6965, em uma raça direta contra os atacantes. O vice-presidente de engenharia do Google, Royal Hansen, comemorou as descobertas como”uma nova fronteira na descoberta automatizada de vulnerabilidades”.
Essa tendência não se limita a apenas dois jogadores. Um ecossistema crescente de ferramentas de segurança de IA de startups e empresas estabelecidas está surgindo. Outros gigantes da tecnologia estão construindo sistemas complementares. A Meta, por exemplo, anunciou recentemente o AutoPatchbench para avaliar o quão bem a IA pode corrigir automaticamente os bugs, ao lado do Llamafirewall, uma ferramenta projetada para impedir que os modelos de IA gerassem código inseguro em primeiro lugar. Enquanto isso, ferramentas como Runsybil e Xbow também estão ganhando manchetes, com Xbow recentemente Topping uma placa líder hackerone . Os mesmos modelos de IA usados para defesa também podem perpetuar práticas de codificação insegura. Pesquisas acadêmicas recentes revelaram que muitos LLMs, treinados em código público do GitHub, aprenderam a replicar bugs antigos, um fenômeno apelidado de problema”envenenado LLM”. Isso cria um ciclo vicioso em que as ferramentas destinadas a construir o futuro estão herdando os erros do passado. Como mehta do Sheetal dos dados da NTT observados em um contexto relacionado,”as ferramentas de segurança fragmentadas não conseguem acompanhar os ataques automatizados de hoje”. Isso reflete um consenso crescente sobre a necessidade de aproveitar a IA para a defesa enquanto mitigou seu potencial de uso indevido. O desenvolvimento de agentes especializados como IRE e Big Sleep representa uma frente crítica nessa batalha. Uma preocupação importante da indústria é”IA Slop”, um termo para a enxurrada de relatórios de bugs de baixa qualidade ou irrelevantes gerados por ferramentas automatizadas.
Isso pode cansar os mantenedores voluntários de projetos de código aberto. Como Vlad Ionescu, co-fundador da startup de segurança da IA, Runsybil, disse ao TechCrunch:”Esse é o problema que as pessoas estão se encontrando, é que estamos recebendo muitas coisas que parecem ouro, mas na verdade é apenas uma porcaria.”Um porta-voz do Google, Kimberly Samra, confirmou que “para garantir relatórios de alta qualidade e acionável, temos um especialista humano em loop antes de relatar, mas cada vulnerabilidade foi encontrada e reproduzida pelo agente da IA sem intervenção humana.”
Microsoft ecoa esse sentimento. Mike Walker, gerente de pesquisa da Microsoft, explicou que as primeiras experiências com o Projeto IRE mostraram”[o que aprendemos com esses casos é] que podemos alavancar os pontos fortes complementares dos seres humanos e da IA para proteção”. A trilha de evidência detalhada do sistema foi projetada especificamente para facilitar essa colaboração humana-máquina.
A Microsoft planeja integrar o protótipo em seus produtos de segurança como”analisador binário”. A visão final da empresa é detectar novos malware diretamente na memória, dimensionando seus recursos autônomos para proteger bilhões de dispositivos com mais eficácia.