Google ha svelato Sec-Gemini V1, un modello sperimentale di intelligenza artificiale volta ad aiutare i professionisti della sicurezza informatica a rilevare e analizzare le minacce in tempo reale. Annunciato il 4 aprile 2025, il modello segna la prima espansione formale dell’azienda del suo marchio Gemini AI nel dominio della sicurezza informatica.

A differenza degli strumenti di sicurezza convenzionali che si basano sul riconoscimento dei modelli o l’automazione da sola, SEC-Gemini enfatizza l’analisi delle minacce in tempo reale. Secondo Google, è progettato per supportare compiti come il malware inverse ingegneria, la scrittura di regole di rilevamento e la produzione di rapporti di analisi degli incidenti.

rivolto all’intelligence delle minacce in tempo reale

sec-gemini è addestrato sui dati di Google Threat Intelligence (GTI), vulnerabilità open source (OSV) e rapporti sulle minacce da e rapporti sulle minacce da maniant . Questa fondazione consente di fornire analisi strutturate su una vasta gamma di attività di sicurezza informatica. The model can analyze binaries, decompile code, classify attacker behavior, and assist with detection logic.

Sec-Gemini v1 was purpose-built to support cybersecurity professionals in detecting, Analizzare e rispondere alle minacce in tempo reale. Aiuta gli analisti a identificare il malware, il codice dannoso per il reverse engineer e le bozze di regole di rilevamento.

Il modello è attualmente fornito per selezionare ricercatori, ONG e team di sicurezza informatica per la sperimentazione e il feedback.

Sec-Gemini ha anche dimostrato forti risultati sui benchmark del settore. Ha superato i modelli comparabili di almeno l’11% sul test di intelligence delle minacce CTI-MCQ e del 10,5% sul benchmark di mappatura delle causa CTI. Il 24 marzo, Microsoft ha rivelato che stava espandendo la sua piattaforma di copilota di sicurezza con sei nuovi agenti di intelligenza artificiale, ciascuno progettato per gestire compiti specifici come il triage di phishing, il rilevamento delle minacce insider e la bonifica della vulnerabilità. Microsoft ha inoltre integrato altri cinque agenti sviluppati da partner come Onetrust e Tanium.

Questi agenti sono integrati in prodotti aziendali come Microsoft Defender e Intune. Microsoft ha osservato che i suoi modelli sono progettati per apprendere dal feedback dell’amministratore e perfezionare la loro precisione.

In contrasto con l’approccio pesante di automazione di Microsoft, la SEC-Gemini di Google sottolinea profonde capacità analitiche. Concentrandosi sul ragionamento, il modello mira a sostenere gli esperti di sicurezza informatica nel scoprire la causa degli attacchi, non solo avvisarli di comportamenti sospetti.

La crescente minaccia di criminalità di criminalità Ai-guidata

Sec-GEMINI ARRIVE ANCORA PER LA PER MOUNG PERSONE Over Cyberacks. Nel 2023, la frode abilitata per DeepFake rappresentava il 7% delle attività di truffa globale, con incidenti che crescono di dieci volte rispetto all’anno precedente. Rispondendo a questa tendenza, Openai ha recentemente investito $ 43 milioni in sicurezza adattiva: una startup incentrata sulla difesa contro i profondi e le truffe di ingegneria sociale. Microsoft, ad esempio, ha citato in giudizio un gruppo di hacking a gennaio per l’utilizzo di credenziali di Azure Azure Open per generare contenuti dannosi, inclusi video falsi usati nei tentativi di phishing.

dimostrato l’impatto e le prospettive future

mentre i gemini sono ancora considerati esperimenti, simili sistemi a favore di Aiushifing in provenienza in provenienza nell’individuazione di Vollennerabities. Il 2 aprile, Microsoft ha recentemente rivelato che il suo modello di copilota di sicurezza aveva aiutato i suoi ingegneri a scoprire difetti critici nei bootloader open source come Grub2, U-boot e Barebox. Questi componenti sono fondamentali per l’avvio di sistemi operativi in ​​modo sicuro e i difetti a questo livello possono consentire il caricamento del codice dannoso prima ancora che le difese si attivino.

Microsoft ha spiegato che i ricercatori hanno utilizzato istruzioni assistite dall’IA per guidare l’ispezione del codice, restringendo iterativamente su segmenti ad alto rischio.”Security Copilot ha contribuito a accelerare la scoperta di vulnerabilità nei bootloader perfezionando e iteterando i suggerimenti che alla fine hanno portato all’identificazione di problemi sfruttabili.”

Questo modello di scoperta proattivo e assistito segnala un cambiamento nel modo in cui sono costruite le difese di sicurezza informatica. Invece di reagire semplicemente alle minacce, sistemi come SEC-Gemini e Security Copilot vengono utilizzati per anticipare le vulnerabilità e chiuderle prima che gli aggressori possano sfruttarle.

Tuttavia, tali modelli di intelligenza artificiale affrontano ostacoli. I falsi positivi rimangono una preoccupazione, soprattutto se distribuiti in ambienti che generano una massiccia telemetria. L’approccio di Google include i circuiti di feedback per migliorare le prestazioni, ma le condizioni del mondo reale determineranno quanto effettivamente le scale del sistema.

prezzi e accessibilità sono anche in grado di modellare l’adozione. Il copilota di sicurezza di Microsoft, ad esempio, ha un prezzo di $ 2,920 al mese per gli utenti aziendali. Mentre non sono stati annunciati prezzi per SEC-GEMINI, è attualmente limitato ai partecipanti ad accesso precoce che possono iscriversi qui. ragionamento strutturato e risposta in tempo reale. Al contrario, il recente sostegno di Openai della sicurezza adattiva e l’attenzione di Microsoft sull’automazione aziendale mostrano che il mercato si sta diversificando rapidamente. Ogni società sta affrontando un diverso aspetto del puzzle di AI-in-Sicurezza: dal rilevamento dell’inganno all’analisi del sistema fondamentale.

Con il suo lancio di sec-gemini, Google segnala che vede la cybersecurity non solo come un imperativo tecnologico ma anche come uno spazio in cui l’intelligenza artificiale deve evolversi da uno strumento passivo in un collaboratore intelligente. Se la SEC-GEMINI può mantenere questa promessa dipenderà da quanto bene si comporta in ambienti in diretta in diretta in cui la velocità, l’accuratezza e la fiducia sono più importanti.

Per ulteriori dettagli tecnici, fare riferimento a