L’administration Biden a appelé le secteur technologique et les institutions financières à s’attaquer au problème croissant des images sexuelles abusives générées par l’IA. Les nouveaux outils d’IA générative ont facilité la création d’images explicites réalistes et non consensuelles, qui sont ensuite largement partagées sur les réseaux sociaux et les forums de discussion. Les victimes, y compris les célébrités et les mineurs, sont confrontées à des difficultés considérables pour supprimer ces images une fois qu’elles sont en ligne.

Appel à la coopération volontaire

L’administration recherche une coopération volontaire. des entreprises à mettre en œuvre des mesures visant à freiner la création, la distribution et la monétisation d’images d’IA non consensuelles. Cet appel s’adresse non seulement aux développeurs d’IA, mais également aux processeurs de paiement, aux institutions financières, aux fournisseurs de services cloud et aux contrôleurs d’accès aux magasins d’applications mobiles. L’objectif est de démanteler les incitations financières derrière les abus sexuels basés sur l’image, avec un accent particulier sur les sites Web qui font la publicité d’images explicites de mineurs.

Arati Prabhakar, conseiller scientifique en chef de Biden et directeur du bureau de la Maison Blanche de La politique scientifique et technologique, a mis en évidence la propagation rapide d’images non consensuelles pilotées par les outils d’IA. , qui a eu un impact profond sur les femmes et les filles. Elle a souligné l’urgence pour les entreprises d’agir rapidement.

Un soutien législatif est nécessaire

Alors que l’administration fait pression pour des engagements volontaires, elle reconnaît également la nécessité d’un soutien législatif. Jennifer Klein, directrice du Conseil de politique de genre de la Maison Blanche, a souligné que si les engagements des entreprises sont essentiels, le Congrès doit également agir. Les lois actuelles criminalisent la création et la possession d’images sexuelles d’enfants, même si elles sont générées par l’IA. Cependant, les outils et services permettant la création de telles images sont peu surveillés.

Les efforts de l’administration s’appuient sur des engagements volontaires antérieurs obtenus par de grandes entreprises technologiques pour mettre en œuvre des garanties pour les nouveaux systèmes d’IA. De plus, Biden a signé un décret pour guider le développement de l’IA afin de garantir la sécurité publique, en répondant à des préoccupations plus larges en matière d’IA, notamment la sécurité nationale et les images de maltraitance d’enfants générées par l’IA.

Réponse et défis de l’industrie

Le secteur privé a répondu par des engagements de la part d’entreprises comme Microsoft, qui a renforcé les mesures de protection après la diffusion en ligne d’images de Taylor Swift générées par l’IA. Les écoles sont également aux prises avec de faux nus d’élèves générés par l’IA, souvent créés et partagés par d’autres adolescents.

Le document de l’administration appelle les fournisseurs de services cloud et les magasins d’applications mobiles à restreindre les applications conçues pour créer ou modifier des images sexuelles. sans consentement. Cela souligne également la nécessité pour les survivants d’avoir la possibilité de supprimer facilement les images non consensuelles des plateformes en ligne.

Les procureurs fédéraux ont déjà pris des mesures contre des individus utilisant des outils d’IA pour créer des images explicites de mineurs. Par exemple, un homme du Wisconsin a été inculpé pour utiliser la diffusion stable pour générer de telles images.

Categories: IT Info