Il governo britannico ha ha annunciato la creazione del primo ufficio internazionale dell’AI Safety Institute (AISI) a San Francisco. Questa mossa mira a rafforzare le capacità tecniche dell’istituto e a posizionarlo come un’entità leader nella sicurezza dell’IA. Il nuovo ufficio consentirà una più stretta collaborazione con le principali aziende di tecnologia dell’intelligenza artificiale.

Espansione strategica

L’ufficio di San Francisco recluterà inizialmente un direttore della ricerca per guidare il primo squadra di personale tecnico. Questa espansione andrà a completare la sede di Londra, che attualmente impiega oltre 30 dipendenti tecnici. Il Segretario di Stato per la Scienza e la Tecnologia Michelle Donelan ha sottolineato che l’espansione sottolinea la leadership britannica nella sicurezza dell’IA e consentirà al Regno Unito di valutare i rischi e le opportunità dell’IA da una prospettiva globale. Ha sottolineato che questa iniziativa rafforzerà la partnership del Regno Unito con gli Stati Uniti e consentirà ad altri paesi di beneficiare dell’esperienza britannica nella sicurezza dell’intelligenza artificiale.

Lavori recenti di AISI

Fin dalla sua nascita, lo scorso anno, l’AISI ha condotto uno studio per valutare l’efficacia delle misure di salvaguardia dell’IA. I risultati dello studio indicano che la sicurezza dell’IA è ancora nelle fasi iniziali. Il responsabile dell’AISI ha osservato che i risultati rappresentano solo una piccola parte del più ampio approccio valutativo che l’istituto sta sviluppando. L’istituto mira a continuare le sue valutazioni concentrandosi sui rischi legati alla sicurezza nazionale.

L’espansione arriva nel contesto delle discussioni in corso sull’importanza di garantire che i modelli di intelligenza artificiale soddisfino i requisiti di sicurezza senza ostacolare l’innovazione. Il governo mira a trovare un equilibrio che consenta lo sviluppo di nuove tecnologie mantenendo rigorosi standard di sicurezza. Questo approccio è considerato essenziale, soprattutto alla luce delle recenti controversie nel settore dell’intelligenza artificiale, come quelle che coinvolgono OpenAI.

Primi risultati dei test sulla sicurezza dell’intelligenza artificiale

L’espansione è stata svelata quando l’AI Safety Institute ha pubblicato i primi risultati dei test di sicurezza dell’IA su modelli disponibili al pubblico e ha concordato una nuova collaborazione con il Canada. L’apertura dell’ufficio è prevista quest’estate, con il reclutamento del primo team di personale tecnico guidato da un direttore della ricerca. Espandendo la propria presenza negli Stati Uniti, l’Istituto stabilirà una più stretta collaborazione con gli Stati Uniti, promuovendo la partnership strategica e l’approccio del Paese alla sicurezza dell’IA, condividendo al tempo stesso ricerche e conducendo valutazioni congiunte di modelli di IA che possono informare la politica di sicurezza dell’IA a livello globale.

Anche questa settimana l’AISI ha avuto un collegamento controverso con una società di dati di intelligence. Faculty, una società britannica di intelligenza artificiale, si è assicurata importanti contratti con il governo del Regno Unito, sollevando domande sulle connessioni politiche dell’azienda e sui processi di appalto. Negli ultimi tre anni la società si è aggiudicata oltre 45 milioni di sterline in gare pubbliche, compreso un contratto da 1,5 milioni di sterline con il AI Safety Institute (AISI) di nuova costituzione per testare tecnologie IA avanzate.

Categories: IT Info