Google a lancé lundi une poussée majeure dans la cybersécurité alimentée par l’IA, annonçant trois nouvelles initiatives pour automatiser la défense numérique.

Le principal outil est Codepender, un nouvel agent d’IA qui trouve et corrige les bogues logiciels en soi

pour obtenir l’aide de la communauté de la sécurité, Google également a commencé un nouveau programme AI Bug Bounty avec des récompenses jusqu’à 30 000 $ . Ces efforts font partie de la stratégie de Google pour utiliser l’IA pour lutter contre les cybermenaces. La société est également Libérant un framework AI sécurisé mis à jour .

un agent autonome conçu pour patcher les vulnérabilités logicielles .

Powered by google de gemini Deep de Google Flaws.

Codepender exploite à la fois de manière réactive, corrigeant de nouveaux bogues, et de manière proactive, en réécrivant du code pour éliminer des classes entières de vulnérabilités.

Son processus comprend une analyse profonde de causes racinaires et un système d’auto-validation unique en utilisant des agents”Critique”spécialisés pour examiner les correctifs.

Dans un cas notable, il a appliqué des annotations de sécurité à la bibliothèque libwebp, une correction qui aurait pu empêcher un nouveau bug Bounty pour inciter les recherches sur la sécurité de l’IA

pour renforcer ses efforts internes, Google lance un programme de récompense de vulnérabilité AI dédié (VRP).

Le programme vise à inciter la communauté mondiale de recherche sur la sécurité pour trouver et signaler les défauts à impact élevé dans ses produits AI, avec des récompenses supérieures atteignant 30 000 $. consolide et clarifie les règles de signalement des problèmes liés à l’IA. Il inclut explicitement les exploits de sécurité comme les injections rapides et l’exfiltration des données.

Cependant, il exclut les problèmes liés à la génération de contenu nocive, que Google ordonne aux utilisateurs de signaler via des outils de rétroaction en produit.

Cela formalise un effort qui a des chercheurs déjà payés plus de 430 000 $ pour les bogues apparentés à AI . Bien que le programme soit une étape bienvenue, certains critiques suggèrent que le paiement maximum peut être trop faible pour attirer des chercheurs d’élite pour les vulnérabilités les plus complexes de l’IA.

La troisième composante de l’annonce de Google est la version de sa version AI Secure sur la version AI Secure sur la version AI. Les risques posés par des agents d’IA de plus en plus autonomes, une préoccupation croissante à travers l’industrie.

Ces initiatives sont une réponse directe à la marée montante des cyberattaques axées sur l’IA. Comme l’ont noté des entreprises comme les données NTT, les outils de sécurité traditionnels ont du mal à suivre le rythme.

La MEHTA de la feuille de données NTT a précédemment déclaré que «les outils de sécurité fragmentés ne peuvent pas suivre les attaques automatisées d’aujourd’hui». Son grand agent de sommeil, par exemple, a évolué en découvrant son premier bug dans SQLite à la fin de 2024 pour neutraliser de manière proactive une menace critique avant de pouvoir être exploitée à la mi-2025.

par des cadres open-source comme SAIF et le développement d’outils autonomes tels que CodeSender, Google vise à sécuriser non seulement ses propres produits mais les logiciels larges. L’engagement à long terme de l’entreprise à basculer l’équilibre de la cybersécurité en faveur des défenseurs.

Categories: IT Info