YouTube lanzó una nueva herramienta el martes para luchar contra los deepfakes de IA, dando a los creadores más control sobre su identidad digital.

El sistema de detección de imágenes permite a los usuarios encontrar y solicitar la eliminación de vídeos que hacen un uso indebido de su rostro o su voz. Esta medida de la plataforma propiedad de Google se produce después de semanas de controversia en torno a la aplicación Sora 2 de OpenAI.

El lanzamiento de Sora 2 provocó una reacción violenta de Hollywood y las familias de celebridades por los deepfakes no autorizados. Esto obligó a OpenAI a cambiar rápidamente sus reglas y asociarse con sindicatos de actores para mejorar la seguridad, lo que pone de relieve una creciente batalla en toda la industria por el control del contenido generado por IA.

YouTube lanza nuevas herramientas para Protección del creador

En un paso importante para empoderar a su comunidad, YouTube ha lanzado oficialmente su tecnología de detección de imágenes para los creadores elegibles en el Programa de socios de YouTube.

El sistema está diseñado para identificar contenido alterado o generado por IA que utiliza la cara o la voz de un creador sin su consentimiento. Ofrece una defensa proactiva contra la creciente ola de deepfakes convincentes.

Para acceder a la herramienta, los creadores deben completar un proceso único de verificación de identidad, que requiere una identificación gubernamental y un breve video selfie para evitar fraudes. use.

Después de la incorporación, el sistema, que funciona de manera similar al ID de contenido establecido de YouTube para derechos de autor, escanea nuevas cargas en busca de posibles coincidencias.

Cuando es posible Si se marca un uso indebido, los creadores pueden revisar el vídeo y optar por presentar una solicitud de eliminación a través del proceso de reclamo de privacidad de YouTube o un reclamo de derechos de autor estándar.

Esto brinda a los creadores un mecanismo directo para salvaguardar su marca e identidad personal, abordando un temor de larga data dentro de la economía de los creadores sobre la posibilidad de que la suplantación digital cause daño a la reputación.

[contenido incrustado]

Una respuesta directa a OpenAI Deepfake Firestorm

El lanzamiento metódico de YouTube contrasta marcadamente con el caótico debut del generador de vídeo Sora 2 de OpenAI.

Lanzado a principios de octubre, la política inicial de”exclusión voluntaria”de Sora 2 para figuras públicas y personajes con derechos de autor inmediatamente fracasó. El diseño de la plataforma, que fomentaba la creación rápida de vídeos virales, significó que los usuarios inundaran la aplicación social complementaria con deepfakes no autorizados y a menudo ofensivos, lo que provocó una feroz protesta pública.

Las críticas más poderosas provinieron de las familias de figuras públicas fallecidas. Zelda Williams, hija del actor Robin Williams, describió el dolor de ver”los legados de personas reales condensados ​​en… horrible, la basura de TikTok que los manipula es enloquecedor”.

Los herederos de los líderes de derechos civiles Malcolm X y Martin Luther King Jr. también condenaron las representaciones”irrespetuosas”e”hirientes”. Bernice King, la hija del Dr. King, hizo una petición simple pero resonante en las redes sociales para que se detuvieran los videos de su padre.

Hollywood se movilizó rápidamente contra la plataforma. La influyente Agencia de Artistas Creativos (CAA) calificó la aplicación como un”riesgo significativo”para sus clientes. Mientras tanto, la Motion Picture Association (MPA) responsabilizó directamente a la empresa de inteligencia artificial de la responsabilidad legal por el uso indebido. El director ejecutivo de MPA, Charles Rivkin, declaró que”…sigue siendo su responsabilidad, no la de los titulares de derechos, evitar la infracción del servicio Sora 2″.

Este frente unificado de la industria creativa creó una crisis de relaciones públicas en toda regla para OpenAI.

Ante una intensa presión, la empresa se apresuró a cambiar de rumbo. El director ejecutivo Sam Altman anunció un giro hacia un sistema de”inscripción voluntaria”más granular para personajes protegidos apenas unos días después del lanzamiento.

Posteriormente, la compañía modificó sus reglas para permitir que los representantes de figuras”recientemente fallecidas”bloqueen sus imágenes. Esta política se puso en práctica cuando OpenAI puso en pausa todas las generaciones de Martin Luther King Jr. a petición de sus herederos.

En una declaración, OpenAI reconoció el difícil equilibrio que enfrentaba y dijo:”Si bien existen fuertes intereses de libertad de expresión al representar figuras históricas, OpenAI cree que las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen”.

La serie de medidas reactivas culminó en el 20 de octubre, cuando OpenAI anunció una asociación formal con el actor Bryan Cranston y el sindicato SAG-AFTRA para fortalecer sus barreras de seguridad, un movimiento histórico en el que un desarrollador líder de IA colabora directamente con sindicatos creativos para dar forma a las políticas.

Navegando por el territorio legal y ético inexplorado de la IA

La controversia de Sora 2 y La nueva herramienta de YouTube resalta la vasta zona gris legal y ética que rodea a la IA generativa. Las leyes tradicionales de difamación a menudo no se aplican a los fallecidos, lo que deja a las familias con un mosaico de derechos de publicidad post mortem inconsistentes a nivel estatal como único recurso.

Este vacío legal, sin un estándar federal predominante, ha permitido la proliferación de contenido que, si bien no siempre es ilegal, causa una angustia emocional significativa y crea incertidumbre tanto para las plataformas como para las familias.

El debate también reaviva preguntas fundamentales sobre cómo Se entrenan modelos de IA. Los críticos argumentan que la dependencia de la industria de extraer cantidades masivas de datos web sin permiso explícito es una cuestión fundamental que aún no se ha resuelto.

Si bien OpenAI ha expresado su apoyo a legislación federal como la Ley NO FAKES, los defensores de los derechos digitales temen que dichas leyes puedan sofocar la libertad de expresión y la parodia si no se elaboran cuidadosamente.

En este entorno turbulento, la herramienta centrada en los creadores de YouTube ofrece un camino diferente adelante. Al proporcionar un mecanismo claro y accesible para que las personas controlen su propia imagen, la plataforma se está posicionando como un administrador más responsable de la identidad digital.

Para el actor Bryan Cranston, quien fue objeto de clips no autorizados de Sora, estas medidas proactivas son esenciales.”Agradezco a OpenAI por su política y por mejorar sus barreras de seguridad, y espero que ellos y todas las empresas involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la replicación de nuestra voz y semejanza”.

A medida que la industria lidia con estas nuevas tecnologías, el contraste entre el caos de”construcción en público”de OpenAI y el enfoque estructurado y basado en herramientas de YouTube presenta dos filosofías muy diferentes para gestionar el futuro de Contenido generado por IA.

El resultado de estas estrategias divergentes probablemente sentará precedentes cruciales para la implementación responsable de la IA en todo el panorama tecnológico.

Categories: IT Info