O YouTube lançou na terça-feira uma nova ferramenta para combater deepfakes de IA, dando aos criadores mais controle sobre sua identidade digital.
O sistema de detecção de semelhança permite que os usuários encontrem e solicitem a remoção de vídeos que usam indevidamente seu rosto ou voz. Esta mudança da plataforma de propriedade do Google ocorre após semanas de controvérsia em torno do aplicativo Sora 2 da OpenAI.
O lançamento do Sora 2 provocou uma reação de Hollywood e das famílias de celebridades por causa de deepfakes não autorizados. Isso forçou a OpenAI a mudar rapidamente suas regras e fazer parceria com sindicatos de atores para melhorar a segurança, destacando uma batalha crescente em todo o setor sobre o controle do conteúdo gerado por IA. Proteção ao Criador
Em um passo significativo para capacitar sua comunidade, o YouTube lançou oficialmente sua tecnologia de detecção de semelhança para criadores qualificados no Programa de Parcerias do YouTube.
O sistema foi projetado para identificar conteúdo gerado ou alterado por IA que usa o rosto ou a voz de um criador sem seu consentimento. Ele oferece uma defesa proativa contra a onda crescente de deepfakes convincentes.
Para acessar a ferramenta, os criadores devem concluir um processo único de verificação de identidade, que requer um documento de identidade governamental e um breve vídeo de selfie para evitar fraudes usar.
Após a integração, o sistema, que funciona de forma semelhante ao Content ID estabelecido pelo YouTube em busca de direitos autorais, verifica novos envios em busca de possíveis correspondências.
Quando possível o uso indevido for sinalizado, os criadores podem analisar o vídeo e optar por registrar uma solicitação de remoção por meio do processo de reclamação de privacidade do YouTube ou de uma reivindicação de direitos autorais padrão.
Isso dá aos criadores um mecanismo direto para proteger sua marca e identidade pessoal, abordando um medo de longa data na economia dos criadores sobre o potencial da representação digital de causar danos à reputação.
[conteúdo incorporado]
Uma resposta direta às críticas da OpenAI Deepfake Firestorm
O lançamento metódico do YouTube contrasta fortemente com a estreia caótica do gerador de vídeo Sora 2 da OpenAI.
Lançado no início de outubro, a política inicial de “exclusão” do Sora 2 para figuras públicas e personagens protegidos por direitos autorais saiu pela culatra imediatamente. O design da plataforma, que incentivava a criação rápida de vídeos virais, fez com que os usuários inundassem o aplicativo social complementar com deepfakes não autorizados e muitas vezes ofensivos, provocando um forte clamor público.
As críticas mais poderosas vieram das famílias de figuras públicas falecidas. Zelda Williams, filha do ator Robin Williams, descreveu a dor de ver “os legados de pessoas reais serem condensados em… horrível, o trabalho de marionetes do TikTok é enlouquecedor”.
Os espólios dos líderes dos direitos civis Malcolm X e Martin Luther King Jr. Bernice King, filha do Dr. King, fez um apelo simples, mas ressonante nas redes sociais para que os vídeos de seu pai parassem.
Hollywood rapidamente se mobilizou contra a plataforma. A influente Creative Artists Agency (CAA) classificou o aplicativo como um “risco significativo” para seus clientes. Enquanto isso, a Motion Picture Association (MPA) colocou o ônus legal do uso indevido diretamente sobre a empresa de IA. O CEO da MPA, Charles Rivkin, afirmou que “… continua a ser sua responsabilidade – e não dos detentores de direitos – prevenir infrações no serviço Sora 2.”
Esta frente unificada da indústria criativa criou uma crise de relações públicas total para a OpenAI.
Enfrentando intensa pressão, a empresa lutou para reverter o curso. O CEO Sam Altman anunciou uma mudança para um sistema mais granular e “opt-in” para personagens protegidos poucos dias após o lançamento.
A empresa posteriormente alterou suas regras para permitir que representantes de figuras “falecidas recentemente” bloqueiem suas imagens. Esta política foi colocada em prática quando a OpenAI suspendeu todas as gerações de Martin Luther King Jr. a pedido de seu espólio.
Em um comunicado, a OpenAI reconheceu o difícil equilíbrio que enfrentava, dizendo: “Embora existam fortes interesses de liberdade de expressão na representação de figuras históricas, a OpenAI acredita que as figuras públicas e suas famílias deveriam, em última análise, ter controle sobre como sua imagem é usada.”
A série de medidas reativas culminou em 20 de outubro, quando a OpenAI anunciou uma parceria formal com o ator Bryan Cranston e o sindicato SAG-AFTRA para fortalecer suas proteções de segurança, um movimento histórico que vê um desenvolvedor líder de IA colaborando diretamente com sindicatos criativos para moldar políticas. ferramenta destaca a vasta área cinzenta legal e ética em torno da IA generativa. As leis tradicionais de difamação muitas vezes não se aplicam aos falecidos, deixando as famílias com uma colcha de retalhos de direitos inconsistentes de publicidade post-mortem em nível estadual como seu único recurso.
Esse vácuo legal, sem nenhum padrão federal predominante, permitiu a proliferação de conteúdo que, embora nem sempre ilegal, causa sofrimento emocional significativo e cria incerteza tanto para plataformas quanto para famílias.
O debate também reacende questões fundamentais sobre como a IA modelos são treinados. Os críticos argumentam que a dependência da indústria de extrair grandes quantidades de dados da web sem permissão explícita é uma questão fundamental que ainda precisa ser resolvida.
Embora a OpenAI tenha manifestado apoio a legislação federal como a Lei NO FAKES, os defensores dos direitos digitais temem que tais leis possam sufocar a liberdade de expressão e a paródia se não forem cuidadosamente elaboradas.
Neste ambiente turbulento, a ferramenta centrada no criador do YouTube oferece um caminho diferente a seguir. Ao fornecer um mecanismo claro e acessível para que os indivíduos controlem a sua própria imagem, a plataforma está a posicionar-se como uma administradora mais responsável da identidade digital.
Para o ator Bryan Cranston, que foi alvo de clipes não autorizados de Sora, tais medidas proativas são essenciais. “Sou grato à OpenAI por sua política e por melhorar suas proteções, e espero que eles e todas as empresas envolvidas neste trabalho respeitem nosso direito pessoal e profissional de gerenciar a replicação de nossa voz e imagem.”
Enquanto a indústria luta com essas novas tecnologias, o contraste entre o caos de”construir em público”da OpenAI e a abordagem estruturada e baseada em ferramentas do YouTube apresenta duas filosofias muito diferentes para gerenciar o futuro da IA gerada conteúdo.
O resultado dessas estratégias divergentes provavelmente estabelecerá precedentes cruciais para a implantação responsável de IA em todo o cenário tecnológico.