Respondendo à reação rápida e generalizada, o OpenAI reverteu sua controversa política de direitos autorais para seu novo aplicativo de geração de vídeo SORA 2. Anunciou uma mudança de um sistema de opção padrão para um dos criadores, o controle granular sobre seus personagens. Isso reacendeu o feroz debate sobre o uso justo e o consentimento no espaço generativo da IA. O Openai também planeja introduzir um modelo de compartilhamento de receita para os diretores que participam. 1º de outubro de lançamento. A postura inicial do APP em direitos autorais foi um modelo”opt-out”, o que significa que os caracteres protegidos foram considerados um jogo justo, a menos que um dos usuários do direito de direito. Isso levou a críticas ferozes de observadores que o consideraram um flagrante desrespeito à propriedade intelectual.
O lançamento foi visto como um movimento deliberado para forçar a questão dos dados de treinamento na praça pública. Os críticos argumentam que as empresas raspam grandes quantidades de dados da Web sem permissão.
a rápida reversão do OpenAI: da opt-out para opt-in
Diante de uma crescente crise de relações públicas, aberta com velocidade notável. Em 3 de outubro, a Altman publicou uma postagem no blog anunciando uma mudança de política significativa . Ele afirmou: “Daremos aos diretores mais controle granular sobre a geração de caracteres, semelhante ao modelo de opção para a semelhança, mas com controles adicionais.”
Isso efetivamente transforma o sistema em um modelo de opção mais amigável para criador entre os desenvolvedores de AI e os desenvolvedores. Para adoçar o acordo, Altman também revelou planos para um novo modelo de negócios que poderia definir um precedente da indústria. Compensado por sua participação. VIBES E VEO 3 do Google. O ex-executivo do Openai, Zack Kass, argumentou que a liberação de tecnologia poderosa precocemente é preferível a desenvolvê-la em segredo. href=”https://www.cnbc.com/2025/10/02/openai-invite-code-sora-2-censorship.html”Target=”_ blank”> disse cnbc. Isso, construindo em salvaguardas como uma estrutura de consentimento robusta e direitos de co-propriedade, onde a pessoa cuja semelhança é usada sempre pode excluir o conteúdo. mundo.
Essa visão é ecoada por especialistas acadêmicos que vêem a geração de vídeo como uma maneira de ajudar os modelos a raciocinar mais como humanos. href=”https://www.cnbc.com/2025/10/02/openai-invite-code-sora-2-concensorship.html”Target=”_ Blank”> declarando , “Usamos ai para gerar conteúdo para então treinar outro modelo para melhor. Física do mundo real.