Pesquisadores acadêmicos desenvolveram um sistema automatizado usando IA generativa que pode caçar, verificar e gerar correções para uma vulnerabilidade crítica de software que se espalhou silenciosamente por projetos de código aberto por 15 anos. O oleoduto movido a IA já identificou 1.756 projetos vulneráveis ​​de node.js no Github e levou com sucesso 63 deles a serem remendados, provando a viabilidade de uma abordagem de ponta a ponta à remediação automatizada de segurança. O sistema não apenas encontra a falha, mas também usa o GPT-4 do OpenAI para escrever e validar um patch, fechando efetivamente um orifício de segurança que permite que os invasores acessem arquivos de servidor restritos. Abrange todo o ciclo de vida do gerenciamento de vulnerabilidades em uma escala anteriormente inatingível. No entanto, suas descobertas também vieram com um aviso gritante: os modelos de IA que estão sendo anunciados como o futuro do desenvolvimento de software são frequentemente”envenenados”, tendo aprendido a replicar o mesmo código inseguro que agora estão sendo solicitados a corrigir.

Anatomia de um bug para sempre

A persistência da vulnerabilidade é um estudo de caso na complexa dinâmica social do software de código aberto. Os pesquisadores rastrearam o código Node.js falhos em um snippet compartilhado pela primeira vez no Github Gist em 2010. A partir daí, ele foi copiado e colado nos fóruns de desenvolvedores e em milhares de projetos, tornando-se um tipo de fantasma digital na máquina. A natureza enganosa da falha contribuiu para sua propagação; Como os navegadores da Web modernos higienizam automaticamente a contribuição maliciosa que desencadeia o bug, os próprios testes dos desenvolvedores falharam em revelar o perigo. Isso criou uma falsa sensação de segurança, permitindo que o padrão vulnerável fique profundamente arraigado no DNA de inúmeras aplicações. Começa com a digitalização do GitHub para padrões de código associados à vulnerabilidade, usa análise estática para sinalizar candidatos a alta probabilidade e, em seguida, tenta ativamente explorar a falha em um ambiente seguro para eliminar falsos positivos. Para vulnerabilidades confirmadas, ele solicita o GPT-4 a gerar um patch, que é testado para garantir que corrige o problema sem quebrar o aplicativo. Em uma veia semelhante, Meta anunciou Em abril de 2025, uma nova remendão, automaticamente, automathing, automatishing, que é um novo, em abril. Embora o potencial seja enorme, a abordagem tem seus críticos. In its April 2025 announcement, Meta also revealed LlamaFirewall, a tool designed specifically to act as a guardrail to prevent models from generating Esse código inseguro. 

Em novembro, o grande agente da IA ​​do Google para encontrar problemas de segurança em software, descobriu uma séria vulnerabilidade no SQLite, um mecanismo de banco de dados de código aberto amplamente usado em aplicativos de software e sistemas incorporados. Big Sleep surgiu de O projeto anterior do Google é um agente de segurança para o que é um agente automático para um agente de autonomia para o AUTOMOUNO. 

Também no ano passado, a Startup Protect AI lançou o Vulnhuntr, uma ferramenta comercial usando o modelo Claude da Anthropic para encontrar vulnerabilidades de dia zero no código Python. A empresa está agora Open Sourcing O projeto Para promover o desenvolvimento da comunidade. A vulnerabilidade infectou os próprios modelos de IA. Como os grandes modelos de idiomas são treinados em vastos tesouros de código público do GitHub, eles aprenderam o padrão inseguro como prática padrão. Os pesquisadores descobriram que, quando solicitados a criar um servidor de arquivos simples, muitos LLMs populares reproduziam com confiança o bug de 15 anos, mesmo quando explicitamente solicitados a escrever uma versão segura.

Esse problema”envenenado LLM”é uma preocupação crescente. De acordo com laboratórios endor , um escalonador 62% do código-generado ai contém bugs ou falhas de segurança. O desafio não é mais apenas corrigir o código legado, mas garantir que as ferramentas que construam código futuro não estejam perpetuando os erros do passado. O campo está vendo um enorme influxo de investimento e inovação à medida que as empresas se apressam para construir defesas movidas a IA. 

Essa tendência está acelerando. Em março de 2025, empresa de segurança Detectar um sistema anunciado como um sistema coleta de inteligência de ameaças autonomamente, priorizando vulnerabilidades e construindo testes de segurança baseados em carga útil.”

Essa onda de inovação ressalta uma mudança fundamental. O projeto dos pesquisadores, embora acadêmico, é uma poderosa prova de conceito em um campo agora definido por um duplo desafio: alavancar a IA como uma poderosa arma defensiva e simultaneamente mitigar os novos riscos de segurança que a própria IA cria. O futuro da segurança do software provavelmente dependerá de quem pode dominar esse complexo Act Balancing primeiro.

Categories: IT Info