O Google lançou um grande impulso na segurança cibernética movida a IA na segunda-feira, anunciando três novas iniciativas para automatizar a defesa digital. href=”https://bughunters.google.com/blog/6116887259840512/announcing-google-snew-ai-vulnerability-warwward-program”Target=”_ Blank”> Iniciou um novo programa de recompensa de bug da AI com recompensa a US $ 30.000 . Esses esforços fazem parte da estratégia do Google de usar a IA para combater as ameaças cibernéticas. A empresa também é lançando uma estrutura AI segura atualizada .

Esse movimento sinaliza uma escalada significativa no uso de IA para fins defensivos. Ele se baseia no trabalho anterior do Google com ferramentas como o Big Sleep, uma IA que recentemente impediu uma exploração do mundo real.

A estratégia subjacente é criar uma vantagem decisiva para os defensores. href=”https://deepmind.google/discover/blog/introducing-codemender-an-ai-agent-for-code-security/”Target=”_ Blank”> um agente autônomo projetado para corrigir os vulnerabilidades de software .

codemender opera de maneira reativa, corrigindo novos erros e proativamente, reescrevendo o código para eliminar classes inteiras de vulnerabilidades. Caso notável, aplicava anotações de segurança na biblioteca Libwebp, uma correção que poderia ter previsto um clique zero iOS <<23. Incentivar a pesquisa de segurança da IA ​​

Para reforçar seus esforços internos, o Google está lançando um programa dedicado de recompensa de vulnerabilidade de IA (VRP).

O programa visa incentivar a comunidade de pesquisa de segurança global. relatar problemas relacionados à IA. Inclui explicitamente explorações de segurança, como injeções rápidas e exfiltração de dados.

No entanto, exclui questões relacionadas à geração prejudicial de conteúdo, que o Google instrui os usuários a relatar através de ferramentas de feedback no produto.

Isso formaliza um esforço que possui pesquisadores já pagos acima de US $ 430.000 para bugs relacionados à AI . Embora o programa seja uma etapa bem-vinda, alguns críticos sugerem que o pagamento máximo pode ser muito baixo para atrair pesquisadores de elite para as vulnerabilidades de IA mais complexas. Riscos representados por agentes de IA cada vez mais autônomos, uma preocupação crescente em toda a indústria. Como as empresas como os dados da NTT observaram, as ferramentas de segurança tradicionais estão lutando para acompanhar o ritmo. Seu grande agente de sono, por exemplo, evoluiu ao descobrir seu primeiro erro no SQLite no final de 2024 para neutralizar proativamente uma ameaça crítica antes de poder ser explorada em meados de 2025. O compromisso de longo prazo da empresa em dar um saldo de segurança cibernética em favor dos defensores.

Categories: IT Info