OpenAI e o Google rejeitaram uma proposta do governo do Reino Unido para estabelecer um órgão independente para resolver disputas de direitos autorais na IA generativa, argumentando que ela introduziria complexidade legal desnecessária e ameaçaria a inovação. Suas respostas surgem em meio a um escrutínio global intensificador sobre como as empresas de IA treinam seus modelos e uma onda de ações judiciais de editores, autores e artistas que exigem remuneração. O OpenAI enfatizou a necessidade de apoiar os mercados de licenciamento, evitar a incerteza legal e tornar o Reino Unido a capital da IA da Europa . O Google ecoou preocupações semelhantes sobre a ultrapassagem regulatória e defendidas para abordagens voluntárias. O plano inclui um mecanismo de exclusão que permitiria aos desenvolvedores de IA treinar modelos em obras protegidas por direitos autorais por padrão, a menos que os detentores de direitos recusem explicitamente. Os ministros do Reino Unido permanecem divididos sobre se devem avançar a proposta. oposição. Em 25 de fevereiro, mais de 1.000 músicos britânicos, incluindo Kate Bush e Damon Albarn, lançaram um álbum de protesto silencioso intitulado “É isso que queremos?”em resposta à estrutura de exclusão do governo. The action was part of a broader pushback against the UK’s 2023 Livro branco sobre o regulamento da IA , que promoveu uma estratégia de”pró-innovatação”sobre as obrigações estatutárias fixas. como relatado por reutores
Os editores do Reino Unido também se afastaram. Em fevereiro, os jornais lançaram uma campanha de primeira página sob a bandeira “Faça com que seja justo”, criticando o mecanismo opt-out do governo e mais fortes para a Jornicists. O campo minado
Ao resistir à supervisão do Reino Unido, o Openai e o Google pediram simultaneamente ao governo dos EUA que reconhecessem o treinamento da IA em materiais protegidos por direitos autorais, protegidos sob a doutrina de uso justo. Em seus envios de março, as duas empresas argumentaram que esse acesso é essencial para manter a competitividade dos EUA na pesquisa de IA. Esse esforço de lobby faz parte de uma estratégia coordenada para garantir uma cobertura legal em meio a litígios crescentes.
A pressão legal já está crescendo. Em 28 de março, um juiz federal decidiu que o processo do New York Times contra o Openai e a Microsoft poderia prosseguir. O processo afirma que milhões de artigos do Times foram usados para treinar modelos como ChatGPT e Copilot, e que os resultados gerados pela IA imitam o trabalho original e redirecionam o tráfego gerador de receita. Como o advogado Times Ian Crosby declarou no tribunal: “Trata-se de substituir o conteúdo, não transformá-lo.”
Openai respondeu que seus modelos não replicam artigos completos e foram projetados para gerar novos conteúdos de fragmentos de texto menores chamados tokens. A Microsoft fez comparações com disputas anteriores envolvendo tecnologias como videocassetes e mecanismos de pesquisa. No entanto, a decisão do Tribunal de permitir que o caso avance sinalize que as definições legais de uso justo na era da IA ainda estão muito em fluxo. Notes
Legal pushback is not limited to the U.S. In France, three major publishing organizations — the Syndicat National de l’Édition (SNE), the Syndicat National des Auteurs et des Compositeurs (SNAC), and the Société des Gens de Lettres (SGDL) — sued Meta in March over allegations that the company used copyrighted books from shadow libraries like LibGen E a biblioteca Z para treinar seus modelos de lhama. Os documentos internos citados por Le Monde e revisados nos documentos judiciais dos EUA mostram que os funcionários da Meta levantaram preocupações legais internamente, que foram escaladas ao CEO Mark Zuckerberg. Em última análise, ele autorizou o uso dos conjuntos de dados.
Como um engenheiro o colocou em uma citação, divulgada em documentos judiciais, dizendo”torrentando de um laptop corporativo [meta] não parece certo”.. Apesar dessas objeções, a equipe de AI da Meta avançou. De acordo com o presidente da SNE, Vincent Montagne, os demandantes tentaram entrar em contato com a Meta antes de tomar medidas legais, mas não receberam resposta. Eles também informaram a Comissão Europeia das Ações da Meta, potencialmente desencadeando um escrutínio adicional sob os direitos autorais da UE e as leis de IA. De acordo com uma análise, aproximadamente 30% dos livros pirateados baixados pela Meta foram reuplutados para as redes BitTorrent, provavelmente prolongando sua disponibilidade. Isso levanta riscos legais separados sob a Lei de Direitos Autorais (DMCA) do Millennium, que proíbe a redistribuição não autorizada de obras protegidas por direitos autorais. Em fevereiro, a startup de IA canadense foi processada por Condé Nast, McClatchy e outros grandes editores que alegam que a empresa usou conteúdo de notícias proprietário para treinar sua”família de comando”de modelos generativos sem autorização. Embora eficaz para melhorar a precisão, Rag também apresenta novos desafios. Os demandantes argumentam que essa abordagem permite a reprodução de conteúdo protegido com transformação mínima, minando as defesas de uso justo. Os demandantes estão buscando danos e uma ordem judicial para bloquear o uso adicional de seu trabalho.
lobby de backchannel e o quadro de xadrez global
Enquanto os debates públicos e os tribunais lutam pela regulamentação, alguns dos participantes mais poderosos da indústria estão trabalhando canais políticos nos bastidores. O CEO da Meta, Mark Zuckerberg, está fazendo lobby no governo Trump para intervir em um grande caso de FTC antitruste referente às aquisições da empresa do Instagram e do WhatsApp. Ao mesmo tempo, ele retratou os esforços de aplicação da UE-como uma multa pendente de 1 bilhão de euros relacionados ao modelo de anúncio de”pagamento ou consentimento”da Meta-como ataques econômicos às empresas de tecnologia dos EUA. Enquanto isso, o entusiasmo regulatório em Bruxelas parece estar diminuindo. A Comissão Europeia desacelerou as investigações da Lei dos Mercados Digitais para evitar reacender disputas comerciais com o governo dos EUA.
Para o Reino Unido, o caminho para a frente permanece incerto. De um lado, o OpenAI e o Google, defendendo a restrição regulatória. Por outro lado, estão criadores, editores e músicos que exigem novas salvaguardas. O órgão de supervisão proposto pode oferecer um compromisso-um fórum neutro em que disputas sobre as práticas de treinamento de IA podem ser abordadas sem recorrer a litígios em grande escala. Mas, por enquanto, o plano permanece paralisado no limbo político, com as apostas legais e de reputação aumentando.