La Maison Blanche a annoncé que huit autres entreprises technologiques, dont Adobe, IBM, Nvidia, Cohere, Palantir, Salesforce, Scale AI et Stability AI se sont engagés à s’engager dans le développement d’une intelligence artificielle (IA) sûre, sécurisée et fiable. Cette décision s’appuie sur les efforts de l’administration Biden-Harris pour gérer les risques liés à l’IA et exploiter ses avantages.

En juillet, lorsque l’initiative a été lancée, de grandes entreprises technologiques américaines, notamment OpenAI, Google, Microsoft, Amazon, Anthropic, Inflection AI et Meta, ont accepté la sauvegarde volontaire. Les engagements sont divisés en trois catégories : sûreté, sécurité et confiance, et s’appliquent aux modèles génératifs qui dépassent les frontières actuelles de l’industrie.

Engagements clés décrits

Les entreprises ont convenu d’une série de mesures visant à garantir le développement et le déploiement responsables de l’IA. Ceux-ci incluent :

Effectuer des tests de sécurité internes et externes des systèmes d’IA avant leur libération. Partager des informations au sein de l’industrie et avec les gouvernements, la société civile et le monde universitaire sur la gestion des risques liés à l’IA. Investir dans la cybersécurité et les mesures de protection contre les menaces internes pour protéger les pondérations des modèles propriétaires et inédits. Faciliter la découverte et le reporting par des tiers des vulnérabilités de leurs systèmes d’IA. Développer des mécanismes pour garantir que les utilisateurs peuvent identifier le contenu généré par l’IA, comme le filigrane. Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriée et inappropriée de leurs systèmes d’IA. Donner la priorité à la recherche sur les risques sociétaux posés par l’IA, notamment les préjugés préjudiciables, la discrimination et les problèmes de confidentialité. Développer et déployer des systèmes d’IA pour répondre aux grands défis de société.

Collaboration internationale et initiatives plus larges

L’administration Biden-Harris a également collaboré activement avec des partenaires internationaux, notamment des pays comme l’Australie, le Brésil, le Canada, l’Allemagne, l’Inde et le Japon. , et le Royaume-Uni, entre autres. Ces collaborations visent à développer une approche unifiée de la sécurité et de la réglementation de l’IA. L’Administration est également travaillent sur un décret sur l’IA pour protéger davantage les droits et la sécurité des Américains.

En plus de ces engagements, l’administration Biden-Harris a pris plusieurs mesures pour assurer le développement responsable de l’IA. Cela inclut lancement du « AI Cyber Challenge », organisation de réunions avec les meilleurs experts en IA et PDG d’entreprises, publication d’un projet de déclaration des droits de l’IA et investissement dans Instituts nationaux de recherche sur l’IA.

“Tant que nous sommes réfléchis et mesurés, nous pouvons garantir un déploiement sûr, fiable et éthique des systèmes d’IA”, a déclaré William Dally, scientifique en chef de NVIDIA, lors d’un récent témoignage au Sénat. Il a souligné l’équilibre entre la réglementation de l’IA, les considérations de sécurité nationale et l’utilisation abusive potentielle de la technologie de l’IA.

Categories: IT Info