A OpenAI anunciou uma nova parceria na segunda-feira. Está trabalhando com o ator Bryan Cranston e o sindicato SAG-AFTRA.
O grupo interromperá vídeos de IA não aprovados no aplicativo Sora. Esta medida segue-se a semanas de duras críticas de Hollywood. A reação cresceu depois que clipes falsos usaram a voz e a imagem de Cranston.
O novo esforço visa criar regras de segurança mais rígidas em torno da identidade digital. É a resposta mais direta da OpenAI até agora a uma tempestade sobre consentimento e uso da imagem de uma pessoa sem permissão. O aplicativo foi lançado no final de setembro.
Em uma declaração conjunta, a OpenAI disse que colaborará com Cranston, SAG-AFTRA, United Talent Agency (UTA) e a Creative Artists Agency (CAA) para fortalecer suas proteções. A mudança foi uma resposta direta aos clipes não autorizados do ator de “Breaking Bad” que apareceram após o lançamento de Sora 2.
O ator Bryan Cranston elogiou a correção do curso da empresa, afirmando: “Sou grato à OpenAI por sua política e por melhorar suas proteções, e espero que eles e todas as empresas envolvidas neste trabalho respeitem nosso direito pessoal e profissional de gerenciar a replicação de nossa voz e imagem”.
O CEO da OpenAI, Sam Altman, afirmou a posição da empresa em relação aos direitos dos artistas, dizendo:”A OpenAI está profundamente comprometida em proteger os artistas contra a apropriação indébita de sua voz e imagem. Fomos um dos primeiros apoiadores da Lei NO FAKES quando ela foi introduzida no ano passado e sempre apoiaremos os direitos dos artistas.”
Do lançamento viral à crise de relações públicas
O a controvérsia vem crescendo desde o lançamento do Sora 2, por volta de 30 de setembro. O poderoso gerador de vídeo da OpenAI estreou com um aplicativo de mídia social complementar e uma decisão política crítica: um modelo de “exclusão” para personagens protegidos por direitos autorais. Isso significava que qualquer figura protegida poderia ser gerada por padrão.
Os usuários imediatamente inundaram a plataforma com deepfakes surreais e muitas vezes ofensivos. Esses vídeos apresentavam desde personagens de desenhos animados amados até figuras históricas falecidas em cenários bizarros. A reação foi rápida e severa, forçando a OpenAI a uma postura defensiva.
As críticas mais viscerais vieram das famílias de celebridades falecidas. Zelda Williams, filha do falecido Robin Williams, implorou aos usuários que parassem de criar vídeos de IA de seu pai.
Ela descreveu a dor de ver “os legados de pessoas reais serem condensados em… horrível, o trabalho de marionetes do TikTok é enlouquecedor”.
Da mesma forma, a família de Malcolm X condenou os clipes como profundamente desrespeitosos. Ilyasah Shabazz, sua filha, chamou o uso da imagem de seu pai de “arrogante e insensível”.
O clamor culminou em um apelo simples, mas poderoso, da filha de Martin Luther King Jr., Bernice King, que postou no X: “Concordo em relação ao meu pai. Por favor, pare.”
Hollywood traça um limite na areia
Os apelos emocionais das famílias foram amplificados por uma resposta unificada de Hollywood. A indústria, já desconfiada da ameaça da IA generativa à propriedade intelectual, mobilizou-se contra a nova plataforma da OpenAI.
As grandes agências de talentos, que representam os artistas no centro da controvérsia, lideraram a investida. A poderosa Creative Artists Agency (CAA) emitiu uma declaração pública contundente em 8 de outubro, rotulando o aplicativo como uma ameaça direta: “Está claro que Open AI/Sora expõe nossos clientes e sua propriedade intelectual a riscos significativos.”a carga legal do uso indevido recai diretamente sobre a empresa de IA. O CEO Charles Rivkin afirmou que “… continua a ser sua responsabilidade – e não dos detentores de direitos – prevenir a violação do serviço Sora 2″, deixando claro que os detentores de direitos não seriam responsáveis pelo policiamento do serviço da OpenAI.
Esta revolta em toda a indústria representou uma escalada significativa, transformando o debate num confronto corporativo de alto risco.
Uma luta para recuperar Controle
Enfrentando uma crise de relações públicas total, a OpenAI lutou para conter as consequências com uma série de rápidas reversões políticas. A abordagem inicial da empresa mostrou-se insustentável contra a reação coordenada.
Em 3 de outubro, poucos dias após o lançamento, Sam Altman anunciou um afastamento do sistema de opt-out.
Em uma postagem no blog, ele prometeu uma estrutura mais amigável ao criador, afirmando que OpenAI “dará aos detentores de direitos um controle mais granular sobre a geração de personagens, semelhante ao modelo opt-in para semelhança, mas com adicional controles.”Esta foi a primeira grande admissão de que a sua política inicial tinha falhado.
As mudanças continuaram ao longo do mês. Em 9 de outubro, a empresa alterou suas regras para permitir que representantes de figuras públicas “falecidas recentemente” solicitassem formalmente o bloqueio de sua imagem.
Esta política foi posta à prova pouco mais de uma semana depois. Em 17 de outubro, a OpenAI anunciou que havia suspendido todas as gerações de Martin Luther King Jr. a pedido direto de seu espólio, citando a criação de “representações desrespeitosas”.
Em um comunicado explicando a medida, a empresa reconheceu o delicado equilíbrio que estava tentando atingir: “Embora haja fortes interesses de liberdade de expressão na representação de figuras históricas, a OpenAI acredita que as figuras públicas e suas famílias deveriam, em última análise, ter controle sobre como seus semelhança é usada.”
Navegando em um campo minado legal e ético
A tempestade de fogo do Sora 2 destaca uma vasta área cinzenta legal e ética. As leis tradicionais de difamação normalmente não se aplicam aos falecidos, deixando as famílias com recursos legais limitados.
Sua via principal é uma colcha de retalhos complexa e inconsistente de leis estaduais que regem o direito post-mortem de publicidade. Esse vácuo legal permite a criação de conteúdo que, embora nem sempre seja comercialmente explorador, causa sofrimento emocional significativo.
Além disso, a controvérsia empurrou de volta ao centro das atenções o debate não resolvido sobre a dependência da IA de grandes quantidades de dados coletados da Web para treinamento.
Os críticos argumentam que as empresas constroem modelos poderosos com base em material protegido por direitos autorais sem permissão, uma questão fundamental que a indústria ainda precisa enfrentar. resolver.
A OpenAI apontou seu apoio à Lei NO FAKES como parte da solução. No entanto, esse projeto de lei federal tem seus próprios críticos. Os defensores dos direitos digitais alertaram que a linguagem ampla do projeto de lei poderia criar um novo direito de propriedade intelectual que sufoca a liberdade de expressão e a paródia.
Essa série de concessões, culminando na nova parceria com Cranston e SAG-AFTRA, sinaliza um movimento em direção a um futuro mais colaborativo e baseado em permissão.
No entanto, também destaca o imenso desafio de equilibrar a inovação tecnológica rápida com os direitos fundamentais dos criadores e dos indivíduos.