Microsofts cybersecurity-arm har tagit ett stort steg för att visa hur artificiell intelligens kan proaktivt identifiera mjukvaruskador begravda djupt i grundläggande system. Med hjälp av sin Security Copilot-plattform upptäckte företaget brister i tre allmänt använda öppna källor- Grub2 , u-boot och Barebox -Det är väsentligt för att initiera operativsystem över Linux-miljöer, inbäddade enheter och molninfrastruktur. Forskare genom komplex källkod på ett riktat, iterativt sätt. The effort revealed exploitable vulnerabilities, including an integer overflow in GRUB2 that could potentially bypass UEFI Secure Boot, a key safeguard in system integrity.
Security Copilot Gets Tactical
Security Copilot wasn’t just passively reviewing code— Det var aktivt att styra utredningen
As Microsoft explained in its announcement, “Security Copilot helped expedite vulnerability discovery in the bootloaders by refining and iterating prompts that eventually led to the identification av exploaterbara frågor.”
De sårbarheter som upptäcktes i U-Boot och Barebox, även om de var allvarliga, befanns vara mindre omedelbart exploaterbara på grund av att de krävde fysisk tillgång, som anges i Rapportering av BleepingComputer . Fortfarande delade Microsoft alla resultat med respektive öppen källkodshållare för sanering och arbetar nära med dem för att samordna lappinsatser.
förstärker mjukvaruförsörjningskedjan
bootloaders, medan sällan är i rampljuset, är pivotal till modern dator. De körs före operativsystemet, vilket innebär att en sårbarhet på denna nivå kan göra det möjligt för skadliga aktörer att kompromissa med systemet innan några konventionella försvar aktiveras. Det är därför Secure Boot-en funktion i uefi -är så kritiskt: det säkerställer bara att lita på, signerade kod körs under start.
microsoft betonar att dess ai-assisted process dyker upp inte bara förklarar inte bara exploit-fall. luckor. Även om inte varje konstaterande betraktades som hög svårighetsgrad, bidrar de kollektivt till attackera ytreduktion.
och viktigare, det AI-drivna arbetsflödet gav en strukturerad väg att granska och triage dessa problem, vilket sparar tid för öppen källkodsunderhållare som kanske inte har företagsresurser till deras förfogande. Dessa verktyg gjorde det möjligt för Copilot att identifiera riskfyllda kodstrukturer som traditionella manuella revisioner och fuzzing kan ha missat.
inuti Microsofts utvidgning av AI-försvarsstrategi
BOOTLOOKER-analysen avslöjades bara en vecka efter att Microsoft tillkännagav en viktig expansion av säkerhet copilot genom tillägget Agent. Dessa agenter är byggda för att automatisera uppgifter som phishing-upptäckt, sanering av sårbarhet, optimering av identitetsåtkomst och insiderriskanalys.
Varje agent är integrerad i produkter som Microsoft Defender, Intra och Entra. Till exempel prioriterar och svarar sårbarhetsrengöringsagenten proaktivt på nya frågor, medan hotintelligensieringsagenten levererar kuraterad analys till säkerhetsteam. Dessa AI-modeller är utformade för att lära av administratörsåterkoppling och förfina deras noggrannhet.
Säkerhet Copilots räckvidd slutar inte med Microsofts interna verktyg. Fem tredjepartsutvecklade agenter-av onetrust, aviatrix, blåvånt, tanium och fletch-integreras i det bredare ekosystemet för att förbättra överträdelsespons, varningsprioritering och nätverksrot-analys. Och med tanke på att företaget nu bearbetar över 84 biljoner säkerhetssignaler per dag och avlyssnar cirka 7 000 lösenordsattacker per sekund, är det lätt att se varför.
Kan AI hålla jämna steg med verkliga hot?
så kraftfulla som dessa verktyg är, AI-ledda upptäckten stilla fortfarande på gränserna. Falska positiver förblir ett problem, och subtila, kontextdrivna buggar kan undkomma upptäckt om modellerna inte är anpassade exakt. Microsoft har tagit upp detta genom att bygga i återkopplingsslingor som gör det möjligt för agenter att lära sig av felaktiga klassificeringar och förfina deras framtida utgångar i enlighet därmed.
En av de frågor som tas upp av denna forskning är om samma process kan skalas till andra domäner. Bootloaders är relativt statiska och har väl definierade strukturer, men applikationskod på högre nivå innehåller ofta mer nyanserade brister. Huruvida copilot kan upprätthålla noggrannhet i sådana scenarier återstår att se.
Det finns också frågan om kostnad. Security Copilot är för närvarande prissatt på USD 2 920 per månad för Enterprise-användare ,, vilket gör det till ett high-end-alternativ för organisationer med komplexa InfRAtRastures. Prissättningen återspeglar dess förmåga att äta telemetri i skala och svara med maskinhastighet, men antagandet bland mindre företag kan vara långsammare.
bootloaders idag, allt imorgon?
genom att oavbrutna sårbarheter i grundläggande lagren av beräkningar, Microsofts AI har gett en tydlig fallstudie av vad som är proaktivt sårbarhet i grundläggande lagren av beräkningar, Microsofts AI har gett en tydlig fallstudie av vad som är proaktivt sårbarhet i grundläggande lagren av beräkningar, Microsofts AI har tillhandahållit en tydlig fallstudie av vad som är proaktiv, ai-passads för att göra det grundläggande lagret. Dessa var inte buggar på ytnivå-de lurade i startbelastare som är kärna till miljoner system.
Med säkerhetskopilot som utvecklas från en hjälper till en autonom deltagare i sårbarhetsforskning är rollen som AI i cyberförsvar inte längre spekulativ. Det blir operativt. När plattformen mognar kommer dess värde att mätas inte bara av hur snabbt den kan upptäcka brister utan av hur effektivt det hjälper organisationer-både stora och små-att säkerställa sina staplar från grunden.