La Casa Bianca ha annunciato che altre otto aziende tecnologiche, tra cui Adobe, IBM, Nvidia, Cohere, Palantir, Salesforce, Scale AI e Stability AI hanno promesso il loro impegno per lo sviluppo di un’intelligenza artificiale (AI) sicura, protetta e affidabile. Questa mossa si basa sugli sforzi dell’amministrazione Biden-Harris per gestire i rischi dell’IA e sfruttarne i benefici.
A luglio, quando è stata lanciata l’iniziativa, le principali aziende tecnologiche statunitensi, tra cui OpenAI, Google, Microsoft, Amazon, Anthropic, Inflection AI e Meta, hanno accettato la salvaguardia volontaria. Gli impegni sono suddivisi in tre categorie: Sicurezza, Protezione e Fiducia e si applicano a modelli generativi che superano l’attuale frontiera del settore.
Impegni chiave delineati
Le aziende hanno concordato una serie di misure volte a garantire lo sviluppo e l’impiego responsabile dell’intelligenza artificiale. Questi includono:
Condurre test di sicurezza interni ed esterni dei sistemi di intelligenza artificiale prima il loro rilascio. Condivisione di informazioni nel settore e con i governi, la società civile e il mondo accademico sulla gestione dei rischi legati all’IA. Investire nella sicurezza informatica e nelle misure di salvaguardia contro le minacce interne per proteggere i pesi dei modelli proprietari e non rilasciati. Facilitare la scoperta e la segnalazione di vulnerabilità da parte di terzi nei loro sistemi di intelligenza artificiale. Sviluppare meccanismi per garantire che gli utenti possano identificare i contenuti generati dall’intelligenza artificiale, come il watermarking. Segnalare pubblicamente le capacità, i limiti e le aree di utilizzo appropriato e inappropriato dei propri sistemi di intelligenza artificiale. Dare priorità alla ricerca sui rischi sociali posti dall’intelligenza artificiale, compresi pregiudizi dannosi, discriminazione e preoccupazioni sulla privacy. Sviluppare e diffondere sistemi di intelligenza artificiale per affrontare le principali sfide della società.
Collaborazione internazionale e iniziative più ampie
L’amministrazione Biden-Harris ha inoltre collaborato attivamente con partner internazionali, tra cui paesi come Australia, Brasile, Canada, Germania, India, Giappone e il Regno Unito, tra gli altri. Queste collaborazioni mirano a sviluppare un approccio unificato alla sicurezza e alla regolamentazione dell’IA. L’Amministrazione è inoltre lavorando su un ordine esecutivo sull’intelligenza artificiale per proteggere ulteriormente i diritti e la sicurezza degli americani.
Oltre a questi impegni, l’amministrazione Biden-Harris ha adottato diverse misure per garantire lo sviluppo responsabile dell’intelligenza artificiale. Ciò include lanciando la”AI Cyber Challenge”, convocando riunioni con i massimi esperti di intelligenza artificiale e amministratori delegati delle aziende, pubblicando un progetto per una Carta dei diritti dell’IA e investendo in Istituti nazionali di ricerca sull’intelligenza artificiale.
“Finché siamo attenti e misurati, possiamo garantire un’implementazione sicura, affidabile ed etica dei sistemi di intelligenza artificiale”, ha affermato il capo scienziato di NVIDIA William Dally in una recente testimonianza al Senato. Ha sottolineato l’equilibrio tra la regolamentazione dell’IA, le considerazioni sulla sicurezza nazionale e il potenziale uso improprio della tecnologia dell’IA.