La società di sicurezza informatica Eye Security ha rivelato una vulnerabilità critica in Microsoft Copilot Enterprise che ha permesso ai suoi ricercatori di ottenere il controllo a livello di root ed eseguire il codice arbitrario all’interno del backend dell’assistente AI. La società di sicurezza olandese ha scoperto il difetto già nell’aprile 2025, ma ora ha rilasciato dettagli sull’incidente.

La vulnerabilità derivava da un percorso dirottando la debolezza nel taccuino Jupyter della piattaforma Sandbox. Microsoft ha patcinato in silenzio il difetto dopo essere stato avvisato ma controverso lo ha classificato come solo”moderata”e non ha assegnato un bug.

Eye Security ha pubblicato i suoi risultati il 25 luglio, sollevando nuove domande sulla postura della sicurezza dei servizi di intelligenza artificiale rapidamente distribuiti in rapido Microsoft e il processo di divulgazione della vulnerabilità. La divulgazione arriva quando Redmond si prepara con la ricaduta da un enorme attacco a zero-day di SharePoint.

dettagliato in una scrittura tecnica dalla sicurezza oculare , dimostra una classica tecnica di escalation del privilegio. I ricercatori hanno iniziato a sondaggio sul sandbox Python Live che Microsoft ha aggiunto silenziosamente a Copilot Enterprise nell’aprile 2025, scoprendo di poter eseguire i comandi di sistema direttamente utilizzando la sintassi del notebook Jupyter.

Questo accesso iniziale li ha collocati all’interno di un contenitore come utente chiamato”Ubuntu”all’interno di un ambiente Miniconda. Mentre questo utente faceva parte del gruppo”sudo”, mancava il binario Sudo stesso, impedendo un semplice percorso verso l’escalation del privilegio. L’ambiente era un filesystem di OverlayFS, dando loro uno sguardo alla costruzione del contenitore.

L’esplorazione del team ha rivelato che la maggior parte degli script personalizzati del servizio risiedevano nella directory/app. Analizzando questi file, hanno identificato lo script entrypoint del contenitore, Entrypoint.sh, che era responsabile del lancio dei servizi principali. Questo script è stato la chiave per trovare una debolezza.

All’interno di questo processo di avvio, è stato lanciato uno script helper chiamato Keepalivejupytersvc.sh con i privilegi di root. Il suo scopo era quello di correre in un ciclo infinito, garantendo che il servizio jupyter fosse sempre attivo. Per fare ciò, ha eseguito periodicamente il comando PGREP per verificare il processo.

Qui, i ricercatori hanno trovato il difetto critico. Lo script ha eseguito PGREP senza specificare il suo percorso di sistema completo (ad es./USR/bin/pGrep). Ciò significava che il sistema avrebbe cercato attraverso un elenco di directory definite nella variabile di $ Path Environment per trovare l’eseguibile.

Fondamentalmente, la variabile $ Path dell’utente principale elencato/app/Miniconda/bin prima delle directory di sistema standard. Il team della sicurezza degli occhi ha scoperto che il loro utente”Ubuntu”Sandbox ha avuto autorizzazioni a questa directory specifica, una svista che ha creato un’opportunità d’oro per un attacco di dirottamento del percorso.

Con tutti i pezzi in atto, il passo finale è stato semplice. I ricercatori hanno realizzato una sceneggiatura maliziosa di Python e la hanno chiamato PGREP. Lo hanno caricato nella directory Writeble/App/Miniconda/Bin. In pochi secondi, lo script `Keepalivejupytersvc.sh` ha fatto il suo assegno, ha trovato il loro file dannoso per primo e lo ha eseguito con privilegi di radice completi, garantendo loro il controllo completo sul contenitore.

la risposta controversa di Microsoft: un flaw moderato. Il processo è culminato più di tre mesi dopo, il 25 luglio, quando il Microsoft Security Response Center (MSRC) ha notificato ai ricercatori che il problema era stato patchato e ha chiuso ufficialmente il caso, secondo la sequenza temporale fornita dalla sicurezza degli occhi.

Tuttavia, la risoluzione ha scatenato una controversia immediata. Microsoft ha classificato il difetto, che ha concesso l’accesso completo a livello di radice al backend del copilota-come solo di gravità”moderata”. Questa classificazione è significativa perché scende al di sotto della soglia per una ricompensa finanziaria; La politica di Microsoft si riserva le tagli di bug per le vulnerabilità che ritiene”importante e critico”.

La valutazione”moderata”ha attirato critiche dalla comunità di sicurezza, con molti che lo sostengono minimizza il potenziale impatto di un compromesso del sistema completo su un prodotto di AI di punta. Un difetto di escalation del privilegio che si traduce nell’accesso alla radice è in genere considerato una vulnerabilità ad alta o critica a rischio, facendo apparire la valutazione ufficiale disconnessa dalla realtà tecnica dell’Exploit.

Invece di una generosità, l’unico riconoscimento formale di Microsoft era l’aggiunta della sicurezza oculare al suo Ringraziamenti del ricercatore elencato in borsa Pagina

Questa reazione generica elimina il nucleo della controversia sulla valutazione della gravità. La decisione è stata sottolineato sufficientemente che la sicurezza degli occhi ha notato esplicitamente il risultato nella sua divulgazione, affermando:”Non abbiamo ricevuto nulla, tranne un riconoscimento”. Ciò evidenzia una significativa disconnessione tra il modo in cui un fornitore e ricercatori indipendenti percepiscono il valore e la gravità di una scoperta di sicurezza.

Un altro mal di testa di sicurezza per Redmond

Questa vulnerabilità del Copilota emerge in un momento difficile per i team di sicurezza di Microsoft. La società sta ancora gestendo le ricadute da una diffusa campagna zero-day di SharePoint (CVE-2025-53770) che ha avuto un impatto su centinaia di organizzazioni a livello globale, comprese le agenzie federali statunitensi.

quell’incidente, attribuito agli attori cinesi sponsorizzati dallo stato, ha comportato anche un sofisticato di una patch precedente. Il tema ricorrente delle vulnerabilità ad alto impatto solleva preoccupazioni per il ciclo di vita dello sviluppo della sicurezza per i prodotti aziendali più critici di Microsoft.

La storia potrebbe non essere finita. La sicurezza degli occhi ha preso in giro il fatto che i suoi ricercatori abbiano anche ottenuto l’accesso al pannello di controllo interno delle operazioni”responsabili responsabili”di Microsoft, un sistema utilizzato per amministrare Copilota e altri servizi interni. href=”https://www.blackhat.com/us-25/briefings/schedule/#consent-compromise-abusing-entra-oauth-for-fun-and-access-to-internal-microsoft-applications-45128″target=”_ black”> blackhat USA 2025 Conferenza sulla sicurezza in Las Vegas. Questa presentazione porterà senza dubbio un ulteriore controllo alla sicurezza dell’Impero AI in crescita di Microsoft.

Categories: IT Info