Sedici importanti aziende di intelligenza artificiale, tra cui Google, Microsoft, IBM e OpenAI, hanno accettato di disattivare le loro tecnologie se mostrano segni di causare risultati dannosi. Questo impegno è stato assunto durante il AI Seoul Summit 2024 in Corea del Sud, un evento significativo dopo l’AI Safety Summit dello scorso anno. Il vertice precedente ha portato alla Dichiarazione di Bletchley, firmata da 28 nazioni e dall’UE, che delineava una visione per la gestione dei rischi legati all’IA senza impegni vincolanti.

Impegni per la sicurezza dell’IA di frontiera

Il vertice di Seul ha introdotto gli impegni per la sicurezza dell’intelligenza artificiale di frontiera, che richiedono alle aziende partecipanti di pubblicare quadri di sicurezza. Questi quadri descriveranno in dettaglio come intendono misurare e gestire i rischi associati ai loro modelli di intelligenza artificiale. Le aziende devono specificare quando i rischi diventano inaccettabili e delineare le azioni che intraprenderanno in tali scenari. Se le misure di mitigazione del rischio falliscono, i firmatari si sono impegnati a fermare lo sviluppo o l’implementazione del modello o sistema di IA problematico.

I firmatari si sono impegnati in diverse iniziative, tra cui la creazione di una squadra rossa per i loro modelli di IA, la condivisione di informazioni, gli investimenti nella sicurezza informatica e incentivando la segnalazione delle vulnerabilità da parte di terzi. Si sono inoltre impegnati a etichettare i contenuti generati dall’intelligenza artificiale, a dare priorità alla ricerca sui rischi sociali e a utilizzare l’intelligenza artificiale per affrontare le sfide globali.

Tra i firmatari ci sono OpenAI, Microsoft, Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Istituto per l’innovazione, xAI e Zhipu.ai. Si prevede che le specifiche di questi impegni saranno finalizzate al “AI Action Summit”previsto per l’inizio del 2025.

Le organizzazioni hanno concordato il seguente Frontier AI Impegni in materia di sicurezza:

“Risultato 1. Le organizzazioni identificano, valutano e gestiscono in modo efficace i rischi durante lo sviluppo e l’implementazione dei propri modelli e sistemi di intelligenza artificiale di frontiera. Lo faranno:

I. Valutare i rischi posti dai loro modelli o sistemi di frontiera durante tutto il ciclo di vita dell’IA, anche prima di implementare tale modello o sistema e, se opportuno, prima e durante la formazione. Le valutazioni dei rischi dovrebbero considerare le capacità dei modelli e il contesto in cui sono sviluppati implementati, così come l’efficacia delle misure di mitigazione implementate per ridurre i rischi associati al loro prevedibile uso e abuso. Dovrebbero anche considerare i risultati delle valutazioni interne ed esterne, come quelle effettuate da valutatori indipendenti di terze parti, e dai loro governi nazionali[nota 2. ], e altri organismi che i loro governi ritengono appropriati.

II. Stabilire soglie [nota 3] oltre le quali i gravi rischi posti da un modello o sistema, se non adeguatamente mitigati, sarebbero considerati intollerabili. Valutare se queste soglie sono state superate, incluso il monitoraggio di quanto un modello o sistema sia vicino a tale violazione. Queste soglie dovrebbero essere definite con il contributo di attori fidati, compresi i rispettivi governi nazionali delle organizzazioni, a seconda dei casi. Dovrebbero allinearsi agli accordi internazionali pertinenti di cui sono parti i governi nazionali. Dovrebbero inoltre essere accompagnati da una spiegazione di come sono state decise le soglie e da esempi specifici di situazioni in cui i modelli o sistemi rappresenterebbero rischi intollerabili.

III. Articolare il modo in cui verranno identificate e implementate le mitigazioni del rischio per mantenere i rischi entro soglie definite, comprese le mitigazioni dei rischi legati alla sicurezza, come la modifica dei comportamenti del sistema e l’implementazione di solidi controlli di sicurezza per i pesi dei modelli non rilasciati.

IV. Stabilire processi espliciti che intendono seguire se il loro modello o sistema comporta rischi che soddisfano o superano le soglie predefinite. Ciò include processi per sviluppare ulteriormente e implementare i propri sistemi e modelli solo se si valuta che i rischi residui rimarranno al di sotto delle soglie. In casi estremi, le organizzazioni si impegnano a non sviluppare o implementare affatto un modello o un sistema, se non è possibile applicare misure di mitigazione per mantenere i rischi al di sotto delle soglie.

V. Investire continuamente nel miglioramento della propria capacità di attuare gli impegni i-iv, tra cui la valutazione e l’identificazione del rischio, la definizione delle soglie e l’efficacia della mitigazione. Ciò dovrebbe includere processi per valutare e monitorare l’adeguatezza delle misure di mitigazione e identificare ulteriori misure di mitigazione necessarie per garantire che i rischi rimangano al di sotto delle soglie predefinite. Contribuiranno e terranno conto delle migliori pratiche emergenti, degli standard internazionali e della scienza sull’identificazione, valutazione e mitigazione dei rischi legati all’intelligenza artificiale.

Risultato 2. Le organizzazioni sono responsabili dello sviluppo e dell’implementazione in sicurezza della loro frontiera Modelli e sistemi di intelligenza artificiale. Essi:

VI. Rispettare gli impegni delineati nei punti I-V, anche sviluppando e rivedendo continuamente i quadri di responsabilità interna e di governance e assegnando ruoli, responsabilità e risorse sufficienti per farlo.

Risultato 3. Approcci delle organizzazioni all’IA di frontiera sicurezza siano adeguatamente trasparenti per gli attori esterni, compresi i governi. Essi:

VII. Fornire trasparenza pubblica sull’attuazione di quanto sopra (I-VI), tranne nella misura in cui ciò aumenterebbe il rischio o divulgherebbe informazioni commerciali sensibili in misura sproporzionata rispetto al vantaggio sociale. Dovrebbero comunque condividere informazioni più dettagliate che non possono essere condivise pubblicamente con attori fidati, compresi i rispettivi governi nazionali o enti designati, a seconda dei casi.

VIII. Spiegare come, se non del tutto, gli attori esterni, come i governi, la società civile, il mondo accademico e il pubblico, sono coinvolti nel processo di valutazione dei rischi dei loro modelli e sistemi di IA, dell’adeguatezza del loro quadro di sicurezza (come descritto al punto I-VI) e la loro adesione a tale quadro.”

Cooperazione globale e piani futuri

In un editoriale scritto congiuntamente, Il primo ministro britannico Rishi Sunak e il presidente sudcoreano Yoon Suk Yeol hanno sottolineato l’urgenza di accelerare sforzi nella governance dell’IA. Il vertice di Seul ha visto anche l’adozione della Dichiarazione di Seul, che sottolinea l’importanza dell’interoperabilità tra i quadri di governance dell’IA per massimizzare i benefici e mitigare i rischi. Questa dichiarazione è stata approvata dai rappresentanti del G7, di Singapore, Australia, Nazioni Unite, OCSE e UE, insieme ai leader del settore.

Categories: IT Info