A OpenAI ainda não cumpriu seu prometido Media Manager, uma ferramenta destinada a permitir que os criadores controlem o uso de seu conteúdo no treinamento de IA, apesar de seu lançamento programado para 2025.

O fracasso da OpenAI em entregar seu A ferramenta Media Manager, há muito prometida, levanta novas preocupações sobre como a propriedade intelectual dos criadores é usada no treinamento de IA. A ferramenta, anunciada em maio de 2024 e esperada para 2025, foi prometida para fornecer aos criadores uma maneira centralizada de gerenciar seus direitos e optar por não participar dos conjuntos de dados da OpenAI.

No entanto, fontes internas sugerem que o projeto foi despriorizado, deixando criadores com opções limitadas e complicadas para proteger seu trabalho.

Techcrunch cita um ex-funcionário da OpenAI dizendo: “Acho que não era uma prioridade. Para ser honesto, não me lembro de ninguém trabalhando nisso.”Essa admissão alimentou ainda mais a frustração entre criadores e defensores de direitos, que veem essa ferramenta como um passo fundamental para resolver problemas de direitos autorais de longa data.

Desafios técnicos e preocupações dos criadores

O Media Manager foi concebido como uma ferramenta abrangente que permite aos criadores optar por não receber conjuntos de dados de treinamento de IA. Ele usaria aprendizado de máquina para identificar materiais protegidos por direitos autorais e gerenciar permissões. promissor, tais sistemas enfrentam obstáculos técnicos, especialmente em escala. Plataformas como YouTube e TikTok já enfrentam dificuldades com a identificação de conteúdo, e a ferramenta da OpenAI precisaria levar em conta diversos formatos, incluindo texto, vídeo e áudio.

Além disso, opte. Os sistemas de saída muitas vezes não conseguem contabilizar reproduções não autorizadas em plataformas de terceiros, complicando a aplicação.

Uma abordagem fragmentada aos direitos autorais

Embora não haja progresso em a mídia prometida Ferramenta de gerenciamento, a OpenAI continuou a buscar acordos de licenciamento de alto perfil para garantir o acesso a conteúdo premium. Em dezembro de 2024, a empresa firmou parceria com a Future PLC, integrando mais de 200 publicações ao ChatGPT.

Isso inclui veículos respeitados como TechRadar, Marie Claire e PC Gamer. O acordo enfatiza a atribuição e links para artigos originais, uma medida que visa promover a transparência e o uso ético de conteúdo.

A OpenAI assinou anteriormente acordos com outras grandes editoras, como a News Corp e a revista TIME, concedendo à empresa de IA acesso a arquivos históricos no início de 2024.

No entanto, essas parcerias representam apenas parte da estratégia da OpenAI. Em novembro de 2024, uma coalizão de editores canadenses, incluindo Toronto Star e CBC, entrou com uma ação acusando a OpenAI de “raspagem generalizada” de seus sites sem permissão.

A alegação alega que as ações da OpenAI violaram as proteções de direitos autorais e acordos de termos de uso, permitindo o desenvolvimento de produtos lucrativos como ChatGPT Plus e ChatGPT Enterprise.

Em 2024, a OpenAI enfrentou vários litígios semelhantes nos Estados Unidos Estados Unidos, incluindo um caso de grande repercussão apresentado pelo The New York Times sobre o uso não autorizado de seus artigos para fins de treinamento. Os críticos argumentam que tais práticas prejudicam os fluxos de receita tradicionais para criadores de conteúdo, ao mesmo tempo que corroem as salvaguardas de direitos autorais.

Uso justo e outros precedentes legais

A OpenAI defende suas práticas invocando o uso justo, uma doutrina legal que permite o uso limitado de material protegido por direitos autorais para fins como pesquisa e comentários. seus modelos geram obras “transformativas” em vez de cópias diretas, uma reivindicação central para sua estratégia jurídica.

Em dezembro de 2024, um juiz federal dos EUA rejeitou uma ação movida pelas editoras menores Raw Story Media e Alternet Media, citando evidência insuficiente de dano. A juíza Colleen McMahon declarou: “Dada a quantidade de informações no repositório, a probabilidade de o ChatGPT produzir conteúdo plagiado de um dos artigos dos Requerentes parece remota.”

No entanto, especialistas jurídicos alertam que tais decisões não podem aplicar-se amplamente. A natureza transformadora dos resultados da IA ​​permanece controversa, e espera-se que casos em andamento, como o do The New York Times e de editores canadenses, testem os limites do uso justo no contexto da IA ​​generativa.

Implicações mais amplas para o desenvolvimento de IA e direitos autorais

O atraso do Media Manager reflete tensões mais amplas na indústria de IA, onde a inovação muitas vezes colide com os acordos de licenciamento éticos e legais da OpenAI com importantes responsabilidades. os editores sugerem disposição para colaborar, mas os criadores menores e os meios de comunicação independentes muitas vezes ficam desprotegidos.

Sem uma ferramenta funcional como o Media Manager, os criadores enfrentam incertezas sobre como seu trabalho é usado, enquanto a OpenAI corre o risco de aumentar a reputação. danos e retrocessos legais. À medida que os processos judiciais se desenrolam, o resultado poderá estabelecer novos precedentes para a lei de direitos de autor, influenciando a forma como os sistemas de IA são treinados e regulamentados em todo o mundo.

Categories: IT Info