La branche de cybersécurité de Microsoft a franchi une étape majeure pour démontrer comment l’intelligence artificielle peut identifier de manière proactive les vulnérabilités logicielles enfouies au fond des systèmes fondamentaux. En utilisant sa plate-forme de copilote de sécurité, la société a découvert des défauts dans trois chargeurs de démarrage open-source largement utilisés— Grub2 , U-Boot , et Barebox -C’est essentiel pour l’initiation de systèmes d’exploitation à travers les environnements de linineaux, les appareils embedded, et l’infrastructure nuageuse. Les chercheurs de Microsoft via un code source complexe de manière ciblée et itérative. L’effort a révélé des vulnérabilités exploitables, notamment un débordement entier dans GRUB2 qui pourrait potentiellement contourner le démarrage Secure UEFI, une garantie clé dans l’intégrité du système.

Copilot de sécurité obtient un code tactique

La copilote de sécurité n’a pas simplement examiné passivement le code- Il a été activement en direction de l’enquête . Les ingénieurs de Microsoft ont fabriqué des invites pour explorer les zones à haut risque du code de chargeur de démarrage et ont utilisé les réponses de Copilot pour affiner leurs requêtes en temps réel. La vulnérabilité dans GRUB2 a été trouvée au cours de cette boucle de rétroaction, en particulier lorsque l’AI a signalé une anomalie dans la façon dont les modules GRUB2 gèrent l’allocation de la mémoire pendant la relocalisation avec de grands décalages.

Comme Microsoft l’a expliqué dans son annonce, «le copilot de sécurité a aidé à expédier la découverte de la victiabilité dans la découverte de la viande de démarrage de la découverte de la viande de démarrage de la découverte de la victiabilité de la découverte de la viande de démarrage de la découverte de la victiabilité de la découverte de la vulance des coffre Problèmes exploitables.”

Les vulnérabilités découvertes dans U-Boot et Barebox, bien que sérieuses, se sont révélées moins immédiatement exploitables en raison de l’accès physique, comme indiqué dans reportage de bleepingComputer . Pourtant, Microsoft a partagé toutes les résultats avec les responsables de l’Open-source respectifs pour l’assainissement et travaille en étroite collaboration avec eux pour coordonner les efforts de correction.

renforçant la chaîne d’approvisionnement logicielle

Boot chargers, tout en étant rarement sous les projecteurs, sont des calculs pivots à modernes. Ils s’exécutent avant le système d’exploitation, ce qui signifie qu’une vulnérabilité à ce niveau pourrait permettre aux acteurs malveillants de compromettre le système avant que les défenses conventionnelles ne s’activent. C’est pourquoi Secure Boot-une fonctionnalité de UEFI -est tellement critique: il garantit que seulement les exécutions de code signées de confiance pendant le démarrage.

Microsoft a souligné que son processus de processus AI-A-assemblé a non seulement exploité les défauts mais des flaws, mais aussi des problèmes subtils, des délits de vérification et de la logique qui exploitent non seulement des flaws mais aussi Gaps. Bien que toutes les constatations n’étaient pas considérées comme une forte gravité, ils contribuent collectivement à l’attaque de la réduction de la surface.

Et surtout, le flux de travail axé sur l’IA a fourni un chemin structuré pour examiner et triage de ces problèmes, ce qui permet d’économiser du temps pour les maintenants open-source qui peuvent ne pas avoir de ressources en matière de langage naturel de niveau d’entreprise. Ces outils ont permis à Copilot d’identifier les structures de code risquées que les audits manuels traditionnels et le fuzzing peuvent avoir manqué.

dans la stratégie de défense en expansion de l’IA de Microsoft

L’analyse du chargeur de démarrage a été révélée une semaine après que Microsoft a annoncé une extension majeure de la copilote de sécurité par l’ajout d’agents spécialisés en II. Ces agents sont conçus pour automatiser des tâches telles que la détection de phishing, l’assainissement de la vulnérabilité, l’optimisation de l’accès à l’identité et l’analyse des risques d’initiés.

Chaque agent est intégré dans des produits comme Microsoft Defender, Intune et ENTRA. Par exemple, l’agent d’assainissement de la vulnérabilité hiérarchise de manière proactive et répond à des problèmes émergents, tandis que l’agent de briefing sur le renseignement des menaces fournit une analyse organisée aux équipes de sécurité. Ces modèles d’IA sont conçus pour apprendre des commentaires de l’administrateur et affiner leur précision.

La portée de la copilote de sécurité ne se termine pas avec les outils internes de Microsoft. Cinq agents développés par des tiers-par OneTrust, Aviatrix, BlueVoyant, Tanium et Fletch-sont intégrés dans l’écosystème plus large pour améliorer la réponse des violations, la priorisation des alertes et l’analyse des causes racinaires du réseau.

Ce changement fait partie de la transition plus large de Microsoft vers le cybersecuralité autonome de Microsoft. Et étant donné que l’entreprise traite désormais plus de 84 billions de signaux de sécurité par jour et intercepte environ 7 000 attaques de mot de passe par seconde, il est facile de voir pourquoi.

L’IA peut-elle suivre le rythme des menaces réelles?

Aussi puissantes que ces outils, la découverte Ai-Dired Face encore limite. Les faux positifs restent une préoccupation et des bogues subtils et axés sur le contexte pourraient échapper à la détection si les modèles ne sont pas réglés avec précision. Microsoft a abordé cela en construisant des boucles de rétroaction qui permettent aux agents d’apprendre des classifications incorrectes et d’affiner leurs résultats futurs en conséquence.

L’une des questions soulevées par cette recherche est de savoir si le même processus peut être mis à l’échelle vers d’autres domaines. Les chargeurs de démarrage sont relativement statiques et ont des structures bien définies, mais le code d’application de niveau supérieur contient souvent des défauts plus nuancés. Il reste à voir si Copilot peut maintenir la précision dans de tels scénarios.

Il y a aussi la question du coût. Sécurité Copilot est actuellement au prix de USD 2,920 par mois pour les utilisateurs d’entreprise , ce qui en fait une option haut de gamme pour les organisations avec des infrastructures complexes. Le prix reflète sa capacité à ingérer la télémétrie à grande échelle et à répondre à la vitesse de la machine, mais l’adoption parmi les petites entreprises peut être plus lente.

Les chargeurs de démarrage aujourd’hui, tout demain?

En découvrant une étude claire de ce qui a fourni une étude de cas proactive, AI-AI-AI-AI peut accomplir. Ce ne sont pas des insectes au niveau de la surface-ils se cachaient dans des chargeurs de démarrage qui sont au cœur de millions de systèmes.

Avec le copilote de sécurité évoluant d’un aide à un participant autonome à la recherche sur la vulnérabilité, le rôle de l’IA dans la cyber-défense n’est plus spéculatif. Cela devient opérationnel. À mesure que la plate-forme mûrit, sa valeur sera mesurée non seulement par la vitesse à laquelle il peut détecter les défauts, mais par son aide à des organisations-à la fois grandes et petites-assurez-vous leurs piles à partir de zéro.

Categories: IT Info