A administração Biden apelou ao setor tecnológico e às instituições financeiras para resolverem o problema crescente das imagens sexuais abusivas geradas pela IA. Novas ferramentas generativas de IA tornaram mais fácil a criação de imagens explícitas, realistas e não consensuais, que são depois amplamente partilhadas nas redes sociais e em salas de chat. As vítimas, incluindo celebridades e menores, enfrentam desafios significativos na remoção destas imagens quando estão online.

Apelo à Cooperação Voluntária

A administração está a procurar cooperação voluntária das empresas para implementar medidas destinadas a restringir a criação, distribuição e monetização de imagens não consensuais de IA. Este apelo é direcionado não apenas aos desenvolvedores de IA, mas também aos processadores de pagamentos, instituições financeiras, provedores de serviços em nuvem e guardiões de lojas de aplicativos móveis. O objetivo é desmantelar os incentivos financeiros por trás do abuso sexual baseado em imagens, com foco particular em sites que anunciam imagens explícitas de menores.

Arati Prabhakar, principal conselheiro científico de Biden e diretor do Escritório de Pesquisa da Casa Branca Política de Ciência e Tecnologia, destacou a rápida disseminação de imagens não consensuais impulsionadas por ferramentas de IA , que teve um impacto profundo nas mulheres e nas raparigas. Ela enfatizou a necessidade urgente de as empresas tomarem medidas rápidas.

É necessário apoio legislativo

Embora a administração pressione por compromissos voluntários, também reconhece a necessidade de apoio legislativo. Jennifer Klein, diretora do Conselho de Política de Género da Casa Branca, enfatizou que embora os compromissos das empresas sejam essenciais, o Congresso também deve tomar medidas. As leis atuais criminalizam a criação e posse de imagens sexuais de crianças, mesmo que sejam geradas por IA. No entanto, há pouca supervisão das ferramentas e serviços que permitem a criação de tais imagens.

Os esforços da administração baseiam-se em compromissos voluntários anteriores assegurados pelas principais empresas tecnológicas para implementar salvaguardas para novos sistemas de IA. Além disso, Biden assinou uma ordem executiva para orientar o desenvolvimento da IA ​​para garantir a segurança pública, abordando preocupações mais amplas da IA, incluindo a segurança nacional e imagens de abuso infantil geradas pela IA.

Respostas e desafios da indústria

O setor privado respondeu com compromissos de empresas como a Microsoft, que reforçou as salvaguardas depois que imagens de Taylor Swift geradas por IA circularam online. As escolas também estão lutando contra nus falsos de estudantes gerados por IA, muitas vezes criados e compartilhados por colegas adolescentes.

O documento da administração pede que provedores de serviços de nuvem e lojas de aplicativos móveis restrinjam aplicativos projetados para criar ou alterar imagens sexuais. sem consentimento. Também sublinha a necessidade de os sobreviventes terem a capacidade de remover facilmente imagens não consensuais de plataformas online.

Os procuradores federais já tomaram medidas contra indivíduos que utilizam ferramentas de IA para criar imagens explícitas de menores. Por exemplo, um homem de Wisconsin foi acusado por usar Difusão Estável para gerar tais imagens.

Categories: IT Info