OpenAI anunció una nueva asociación el lunes. Está trabajando con el actor Bryan Cranston y el sindicato SAG-AFTRA.
El grupo detendrá los videos de IA no aprobados en la aplicación Sora. Esta medida se produce tras semanas de duras críticas por parte de Hollywood. La reacción creció después de que clips falsos utilizaran la voz y la imagen de Cranston.
El nuevo esfuerzo tiene como objetivo construir reglas de seguridad más estrictas en torno a la identidad digital. Es la respuesta más directa de OpenAI hasta el momento a una tormenta sobre el consentimiento y el uso de la imagen de una persona sin permiso. La aplicación se lanzó a finales de septiembre.
En una declaración conjunta, OpenAI dijo que colaborará con Cranston, SAG-AFTRA, United Talent Agency (UTA) y Creative Artists Agency. (CAA) para reforzar sus barandillas. La medida fue una respuesta directa a los clips no autorizados del actor de”Breaking Bad”que aparecieron después del lanzamiento de Sora 2.
El actor Bryan Cranston elogió la corrección del rumbo de la compañía y afirmó:”Agradezco a OpenAI por su política y por mejorar sus barreras de seguridad, y espero que ellos y todas las compañías involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la replicación de nuestra voz y semejanza”.
El director ejecutivo de OpenAI, Sam Altman, afirmó la posición de la compañía sobre los derechos de los artistas intérpretes o ejecutantes, diciendo:”OpenAI está profundamente comprometido a proteger a los artistas intérpretes o ejecutantes de la apropiación indebida de su voz y su imagen. Fuimos uno de los primeros partidarios de la Ley NO FAKES cuando se introdujo el año pasado, y siempre respaldaremos los derechos de los artistas intérpretes o ejecutantes”.
Del lanzamiento viral a la crisis de relaciones públicas
La La controversia se ha estado gestando desde el lanzamiento de Sora 2 alrededor del 30 de septiembre. El poderoso generador de video de OpenAI debutó con una aplicación de redes sociales complementaria y una decisión política crítica: un modelo de”exclusión voluntaria”para personajes protegidos por derechos de autor. Esto significaba que cualquier figura protegida podía generarse de forma predeterminada.
Los usuarios inmediatamente inundaron la plataforma con deepfakes surrealistas y a menudo ofensivos. Estos videos presentaban a todos, desde queridos personajes de dibujos animados hasta personajes históricos fallecidos, en escenarios extraños. La reacción fue rápida y severa, lo que obligó a OpenAI a adoptar una postura defensiva.
Las críticas más viscerales provinieron de las familias de las celebridades fallecidas. Zelda Williams, hija del fallecido Robin Williams, suplicó a los usuarios que dejaran de crear videos de IA de su padre.
Describió el dolor de ver”los legados de personas reales condensados en… horrible, la basura de TikTok que los manipula es enloquecedor”.
Del mismo modo, la familia de Malcolm X condenó los clips como profundamente irrespetuosos. Ilyasah Shabazz, su hija, calificó el uso de la imagen de su padre como”altivo e insensible”.
La protesta culminó en una simple pero poderosa súplica de la hija de Martin Luther King Jr., Bernice King, quien publicó en X:”Estoy de acuerdo con respecto a mi padre. Por favor, deténgase”.
Hollywood traza una línea en la arena
Las emotivas súplicas de las familias se vieron amplificadas por una respuesta unificada de Hollywood. La industria, que ya desconfiaba de la amenaza de la IA generativa a la propiedad intelectual, se movilizó contra la nueva plataforma de OpenAI.
Las principales agencias de talentos, que representan a los artistas en el centro de la controversia, encabezaron la carga. La poderosa Agencia de Artistas Creativos (CAA) emitió una dura declaración pública el 8 de octubre, calificando la aplicación como una amenaza directa:”Está claro que Open AI/Sora expone a nuestros clientes y su propiedad intelectual a un riesgo significativo”.
Este sentimiento se hizo eco en toda la industria, y estudios importantes como Disney supuestamente se negaron a permitir que su material apareciera en la aplicación.
La Motion Picture Association (MPA) también intervino, colocando la carga legal por el uso indebido recaiga directamente en la empresa de IA. El director ejecutivo Charles Rivkin afirmó que “…sigue siendo su responsabilidad, no la de los titulares de derechos, prevenir la infracción del servicio Sora 2″, dejando claro que los titulares de derechos no serían responsables de vigilar el servicio de OpenAI.
Esta revuelta en toda la industria representó una escalada significativa, transformando el debate en una confrontación corporativa de alto riesgo.
Una lucha por recuperar Control
Ante una crisis de relaciones públicas en toda regla, OpenAI se apresuró a contener las consecuencias con una serie de rápidos cambios de política. El enfoque inicial de no intervención de la compañía resultó insostenible frente a la reacción coordinada.
El 3 de octubre, pocos días después del lanzamiento, Sam Altman anunció un alejamiento del sistema de exclusión voluntaria.
En una publicación de blog, prometió un marco más amigable para los creadores, afirmando que OpenAI “dará a los titulares de derechos un control más granular sobre la generación de personajes, similar al modelo de inclusión voluntaria para la semejanza, pero con características adicionales. controles.”Esta fue la primera admisión importante de que su política inicial había fracasado.
Los cambios continuaron durante todo el mes. El 9 de octubre, la compañía modificó sus reglas para permitir que los representantes de figuras públicas”recientemente fallecidas”solicitaran formalmente que se bloqueara su imagen.
Esta política se puso a prueba poco más de una semana después. El 17 de octubre, OpenAI anunció que había suspendido todas las generaciones de Martin Luther King Jr. a petición directa de sus herederos, citando la creación de “representaciones irrespetuosas”.
En una declaración explicando la medida, la compañía reconoció el delicado equilibrio que estaba tratando de lograr: “Si bien existen fuertes intereses de libertad de expresión al representar figuras históricas, OpenAI cree que las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se reproducen sus imágenes. se utiliza.”
Navegando por un campo minado legal y ético
La tormenta de fuego de Sora 2 resalta una vasta área gris legal y ética. Las leyes tradicionales sobre difamación generalmente no se aplican a los fallecidos, lo que deja a las familias con recursos legales limitados.
Su vía principal es un mosaico complejo e inconsistente de leyes estatales que rigen el derecho de publicidad post mortem. Este vacío legal permite la creación de contenido que, si bien no siempre es de explotación comercial, causa una angustia emocional significativa.
Además, la controversia ha vuelto a poner en el centro de atención el debate no resuelto sobre la dependencia de la IA de grandes cantidades de datos web extraídos para capacitación.
Los críticos argumentan que las empresas construyen modelos poderosos sobre material protegido por derechos de autor sin permiso, una cuestión fundamental que la industria aún no ha resuelto. resolver.
OpenAI ha señalado su apoyo a la Ley NO FAKES como parte de la solución. Sin embargo, ese proyecto de ley federal tiene sus propios críticos. Los defensores de los derechos digitales han advertido que el lenguaje amplio del proyecto de ley podría crear un nuevo derecho de propiedad intelectual que sofoque la libertad de expresión y la parodia.
Esta serie de concesiones, que culmina con la nueva asociación con Cranston y SAG-AFTRA, señala un movimiento hacia un futuro más colaborativo y basado en permisos.
Sin embargo, también destaca el inmenso desafío de equilibrar la rápida innovación tecnológica con los derechos fundamentales de los creadores y las personas.