Las familias de íconos fallecidos como Malcolm X y Robin Williams están condenando a OpenAI tras el lanzamiento de su aplicación de vídeo Sora 2. Desde su debut el 1 de octubre, la aplicación se ha utilizado para crear una ola de deepfakes de personajes históricos no autorizados y a menudo grotescos con IA.
Los familiares han criticado los videos como profundamente irrespetuosos e hirientes. La tormenta de fuego ha obligado a OpenAI a revisar apresuradamente sus políticas sobre imagen digital. Esto enciende un feroz debate sobre el consentimiento para los muertos y quién controla el legado de una persona en la era de la IA.
Los legados se convirtieron en un’horrible desastre de TikTok’
La controversia estalló casi de inmediato. La política inicial de OpenAI eximía a las”personajes históricos”de las reglas de consentimiento, permitiendo a los usuarios generar clips de cualquier persona fallecida. La plataforma se vio rápidamente inundada de contenido extraño y ofensivo que se volvió viral.
Los videos mostraban al activista de derechos civiles Malcolm X haciendo bromas groseras, representado por el querido pintor Bob Ross. pintar el World Trade Center en llamas y Martin Luther King Jr. siendo parodiado irrespetuosamente. La reacción de los miembros de la familia fue rápida y visceral.
Ilyasah Shabazz, la hija de Malcolm X, dijo al Washington Post, “es profundamente Es irrespetuoso e hiriente ver la imagen de mi padre utilizada de manera tan arrogante e insensible cuando dedicó su vida a la verdad”. Zelda Williams, hija del actor Robin Williams, se hizo eco de su sentimiento. Suplicó a los usuarios que dejaran de enviarle videos de inteligencia artificial de su difunto padre.
Williams describió el dolor de ver”los legados de personas reales condensados en… horrible, la basura de TikTok que los manipula es enloquecedor”. Las familias de otras figuras prominentes también emitieron condenas públicas.
La hija de Martin Luther Jr, Bernice King, simplemente publicó en X: “Estoy de acuerdo con respecto a mi padre. Por favor, deténgase”. en respuesta a los vídeos de Sora de su padre.
Joan Kowalski, presidente de Bob Ross Inc., que gestiona la imagen del difunto pintor, notó el extraño impulso detrás de las creaciones irreverentes y afirmó:”la gente quiere tomar a la persona más pura y sana y arruinarla”.
Randolph Churchill, bisnieto del ex primer ministro del Reino Unido, afirmó que”Winston Churchill pertenece a la historia y su legado merece precisión, dignidad y administración legal”.
La lucha de OpenAI por Contain the Fallout
La protesta pública de las familias se vio amplificada por una respuesta coordinada de Hollywood. La poderosa Agencia de Artistas Creativos (CAA) calificó la aplicación como un”riesgo significativo”para sus clientes y su propiedad intelectual. La Motion Picture Association (MPA) colocó la carga legal directamente sobre la empresa de IA.
El director ejecutivo de MPA, Charles Rivkin, declaró que”… sigue siendo su responsabilidad, no la de los titulares de derechos, prevenir la infracción del servicio Sora 2″, dejando claro que la industria no aceptaría un enfoque pasivo ante la infracción. Este frente unido de Hollywood, combinado con las súplicas emocionales de las familias, creó una crisis de relaciones públicas en toda regla para OpenAI.
La empresa se apresuró a reaccionar. El 3 de octubre, solo dos días después del lanzamiento, el director ejecutivo Sam Altman anunció un cambio desde la política de exclusión voluntaria inicial de derechos de autor hacia un modelo más granular de inclusión voluntaria para personajes protegidos.
El 9 de octubre, OpenAI modificó sus reglas nuevamente, esta vez abordando la queja principal. Comenzó a permitir que los representantes de figuras públicas”recientemente fallecidas”solicitaran que se bloqueara su imagen.
Un portavoz de OpenAI dijo:”Creemos que las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen”, lo que indica un importante cambio de política bajo presión.
El sindicato de actores SAG-AFTRA también emitió una declaración formal condenando el uso no autorizado de artistas fallecidos. semejanzas.
A.I. Los acontecimientos están en los titulares. Esto es lo que está haciendo SAG-AFTRA. pic.twitter.com/QrEgvzlWWO
— SAG-AFTRA (@sagaftra) 10 de octubre de 2025
Un campo minado legal y ético
La controversia expone una vasta zona gris legal y ética. Las leyes tradicionales sobre difamación generalmente no se aplican a los fallecidos, lo que deja a las familias con recursos legales limitados.
La vía principal es el complejo e inconsistente mosaico de leyes estatales que rigen la “derecho de publicidad postmortem.“
Este vacío legal permite la creación de contenido que, aunque no sea comercial, explotador en el sentido tradicional, causa una angustia emocional significativa.
Los expertos legales señalan que OpenAI podría argumentar que su herramienta permite un “uso transformador” o una parodia protegida por la Primera Enmienda. Sin embargo, también sugieren que la cuestión central es el daño emocional y la cuestión fundamental de quién controla el legado de una persona.
OpenAI ha defendido su estrategia de”construir en público”. Los ejecutivos citaron la necesidad de evitar una desventaja competitiva, mientras que el ex ejecutivo Zack Kass argumentó que publicar dicha tecnología abiertamente es mejor que desarrollarla en secreto.
La empresa también enmarca a Sora no solo como una aplicación social sino como una herramienta de investigación para su misión de lograr AGI. Pero para muchos, el lanzamiento parece un movimiento deliberado para forzar un tema polémico.
La capacidad de la aplicación para generar tan fácilmente lo que Jason Koebler de 404 media llamadas “pudrición cerebral de importantes personajes queridos con derechos de autor” ha vuelto a poner en el centro de atención el debate no resuelto sobre el “pecado original” de la IA (su dependencia de datos extraídos).