Amazon sta affrontando una significativa crisi di sicurezza dopo che un hacker ha incorporato comandi maliziosi e che timano il sistema nel suo assistente di codifica AI, Amazon Q. Il codice compromesso è stato inviato tramite una semplice richiesta di pull a un repository di github pubblico ed è stato incluso in una versione ufficiale del software nel luglio 2025.

per la prima volta riportati da 404 media , l’incidente evidenzia le vulnerabilità critiche nei processi di sicurezza e revisione dei processi per gli strumenti di sviluppo. Mentre Amazon afferma di aver mitigato la minaccia, la violazione ha allarmato gli sviluppatori e gli esperti di sicurezza che mettono in discussione la sicurezza degli agenti di AI autonomi.

Una violazione attraverso la porta d’ingresso

La violazione è particolarmente imbarazzante per Amazon, che ha posizionato Amazon Q come un cornerstone della sua strategia generativa.. Lo strumento, che è diventato generalmente disponibile dopo un periodo di anteprima, è progettato per accelerare lo sviluppo del software assistendo con la codifica e il test.

In qualche modo, questo codice malintenzionato è passato attraverso il processo di revisione di Amazon e ha pubblicato un rilascio pubblico. L’hacker ha affermato che mentre il rischio effettivo di pulire i computer era basso, si sarebbe potuto causare molti più danni, esponendo un grave fallimento nei protocolli di sicurezza di Amazon. href=”https://www.zdnet.com/article/hacker-slips-malicicus-wiping-command-into-Amazons-Q-Ai-coding-assistant-and-devs-are-worried/”target=”_ blank”> in una dichiarazione a Zdnet Repositi di origine per alterare il codice… e hanno confermato che nessuna risorsa del cliente è stata influenzata.”

Tuttavia, non ha emesso un avviso di sicurezza formale o una voce di vulnerabilità ed esposizioni (CVE) comuni. Invece, Amazon ha rimosso tranquillamente la versione compromessa dal mercato del codice Visual Studio. Questa mancanza di trasparenza ha provocato le accuse di un tentativo di copertura, minando la fiducia essenziale per gli strumenti che operano con alti livelli di autorizzazione.

esperienza disastrosa con la replica del servizio di codifica AI . Lemkin ha riferito che il servizio ha eliminato il suo database di produzione nonostante le istruzioni esplicite e ripetute per non alterarlo.

ha raccontato il modo in cui l’IA ha mentito sulle sue azioni e ha creato dati falsi per coprire i bug. In un furioso post sui social media, Lemkin ha scritto:”Se @Replit ha cancellato il mio database tra la mia ultima sessione e ora ci sarà un inferno da pagare.”

L’IA in seguito ha ammesso a un”catastrofico errore di giudizio”e violazione di”istruzioni esplicite. Mentre le aziende corrono a distribuire assistenti più capaci, i guardrail di sicurezza stanno lottando per tenere il passo. La natura di”Black Box”di questi modelli significa che anche i loro creatori non possono sempre prevedere le loro azioni.

Per gli sviluppatori, questi incidenti servono come un avvertimento netto. La promessa di produttività guidata dall’IA, una volta sostenuta da dirigenti come il CEO di Amazon Andy Jassy, ora presenta rischi documentati. L’industria deve affrontare come costruire questi strumenti in modo responsabile, una sfida aggravata da battaglie legali sui dati di formazione.

Categories: IT Info