OpenAI anunció el jueves que ha suspendido la capacidad de los usuarios para generar videos de Martin Luther King Jr. con su aplicación Sora 2.
La medida se produce a petición directa del patrimonio del difunto líder de derechos civiles, luego de una ola de”representaciones irrespetuosas”creadas desde el lanzamiento de la plataforma a principios de octubre.
La controversia no es aislada; Las familias de otras figuras públicas fallecidas, incluidos Malcolm X y Robin Williams, también han condenado los hirientes videos generados por IA. La intensa reacción ha obligado a OpenAI a una serie de rápidos cambios de política, intensificando un feroz debate sobre el consentimiento y quién controla el legado de una persona en la era de la IA.
Esta última acción es la respuesta más directa de OpenAI hasta el momento a una crisis que ha afectado a su nueva plataforma de vídeo desde el primer día. La política inicial de la compañía eximía a las”figuras históricas”de las reglas de consentimiento, un enfoque que resultó contraproducente casi de inmediato.
El bloqueo de la imagen del Dr. King marca la intervención más específica y de alto perfil hasta la fecha.
Las familias condenan la”horrible caída de TikTok”
La plataforma se vio rápidamente inundada de deepfakes extraños y ofensivos. Los vídeos mostraban al activista de derechos civiles Malcolm X haciendo bromas groseras, al pintor Bob Ross representado con paisajes en llamas y, según los informes, al Dr. King haciendo ruidos de mono. La reacción de los miembros de la familia fue rápida y visceral.
Ilyasah Shabazz, hija de Malcolm X, le dijo al Washington Post que “es profundamente Es irrespetuoso e hiriente ver la imagen de mi padre utilizada de una manera tan arrogante e insensible cuando dedicó su vida a la verdad”.
Su sentimiento fue compartido por Zelda Williams, hija del actor Robin Williams. Suplicó a los usuarios que dejaran de crear y compartir videos de inteligencia artificial de su difunto padre.
Williams describió el dolor de ver”los legados de personas reales condensados en… horrible, la basura de TikTok que los manipula es enloquecedor”. Las familias de otras figuras destacadas también emitieron condenas públicas. En una publicación sobre X, la hija del Dr. King, Bernice King, simplemente declaró:”Estoy de acuerdo con respecto a mi padre. Por favor, deténgase”, una súplica que resonó ampliamente.
La protesta pública fue amplificado por una respuesta coordinada de Hollywood. La poderosa Agencia de Artistas Creativos (CAA) calificó la aplicación como un”riesgo significativo”, mientras que la Motion Picture Association (MPA) colocó la carga legal por el uso indebido directamente sobre la empresa de inteligencia artificial.
El director ejecutivo de MPA, Charles Rivkin, afirmó que”…sigue siendo su responsabilidad, no la de los titulares de derechos, evitar la infracción del servicio Sora 2″.
La lucha por revertir la acción de OpenAI Curso
Ante una crisis de relaciones públicas en toda regla, OpenAI se apresuró a contener las consecuencias. El 3 de octubre, apenas dos días después del lanzamiento, el director ejecutivo Sam Altman anunció un cambio en la política de derechos de autor inicial. Prometió un modelo más granular y de aceptación voluntaria para los personajes protegidos.
Esta fue una admisión clara de que el enfoque inicial de no intervención era insostenible. El 9 de octubre, la empresa volvió a modificar sus reglas. Comenzó a permitir que los representantes de figuras públicas”recientemente fallecidas”solicitaran formalmente que se bloqueara su imagen en la plataforma.
La evolución de la política culminó con el anuncio del 16 de octubre de que había detenido por completo las generaciones de la imagen del Dr. King.
En una declaración publicada en X, la compañía explicó su posición en evolución. OpenAI dijo que”si bien existen fuertes intereses de libertad de expresión al representar figuras históricas, OpenAI cree que las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen”, lo que indica un cambio de política significativo bajo la presión tanto de las familias como de los socios de la industria.
Declaración de OpenAI y King Estate, Inc.
El patrimonio de Martin Luther King, Jr., Inc. (King, Inc.) y OpenAI han trabajaron juntos para abordar cómo la imagen del Dr. Martin Luther King Jr. está representada en las generaciones de Sora. Algunos usuarios generaron representaciones irrespetuosas del Dr.…
— OpenAI Newsroom (@OpenAINewsroom) 17 de octubre de 2025
Un campo minado legal y ético
La controversia expone una vasta zona gris legal y ética. Las leyes tradicionales sobre difamación generalmente no se aplican a los fallecidos, lo que deja a las familias con recursos legales limitados. Su vía principal es un mosaico complejo e inconsistente de leyes estatales que rigen el derecho de publicidad postmortem.
Este panorama legal está notoriamente fragmentado. Estados como California y Nueva York tienen estatutos sólidos que protegen la imagen de una celebridad durante décadas después de su muerte. Sin embargo, muchos otros estados ofrecen protecciones limitadas o nulas, creando una lotería legal para las familias dependiendo de dónde estaba domiciliado el fallecido.
La defensa de la Primera Enmienda también es un campo de batalla crítico. Las empresas de tecnología a menudo argumentan que el contenido generado por IA califica como “uso transformador” o parodia, formas de expresión protegida.
Un tribunal podría tener que sopesar si un deepfake es un trabajo nuevo y expresivo o simplemente una explotación no autorizada de la identidad de una persona, una línea que sigue siendo borrosa con la IA generativa.
OpenAI ha defendido su estrategia de “construir en público”, y los ejecutivos citan la necesidad de evitar un desventaja competitiva al desarrollar tecnología en secreto. Si bien la compañía enmarca esto como un paso necesario hacia la investigación de AGI, los críticos lo ven como un movimiento calculado para normalizar la tecnología controvertida y transferir la carga de controlar su uso indebido al público.
La capacidad de la aplicación para generar tan fácilmente lo que 404 media llamó “la pudrición cerebral de los personajes más queridos con derechos de autor” ha vuelto a poner en peligro el debate no resuelto sobre el “pecado original” de la IA (su dependencia de datos extraídos). el centro de atención.