OpenAI a annoncé un nouveau partenariat lundi. Il travaille avec l’acteur Bryan Cranston et le syndicat SAG-AFTRA.
Le groupe arrêtera les vidéos d’IA non approuvées sur l’application Sora. Cette décision fait suite à des semaines de vives critiques de la part d’Hollywood. La réaction s’est accentuée après que de faux clips aient utilisé la voix et l’image de Cranston.
Le nouvel effort vise à élaborer des règles de sécurité plus strictes autour de l’identité numérique. Il s’agit de la réponse la plus directe d’OpenAI à une tempête autour du consentement et de l’utilisation de l’image d’une personne sans autorisation. L’application a été lancée fin septembre.
Dans une déclaration commune, OpenAI a annoncé qu’elle collaborerait avec Cranston, SAG-AFTRA, United Talent Agency (UTA) et la Creative Artists Agency. (CAA) pour renforcer ses garde-corps. Cette décision était une réponse directe aux clips non autorisés de l’acteur de « Breaking Bad » apparus après le lancement de Sora 2.
L’acteur Bryan Cranston a salué le changement de cap de l’entreprise, déclarant: « Je suis reconnaissant à OpenAI pour sa politique et pour l’amélioration de ses garde-fous, et j’espère qu’eux et toutes les entreprises impliquées dans ce travail respecteront notre droit personnel et professionnel de gérer la réplication de notre voix et ressemblance.”
Le PDG d’OpenAI, Sam Altman, a affirmé la position de l’entreprise sur les droits des artistes interprètes ou exécutants, en déclarant :”OpenAI est profondément engagé à protéger les artistes interprètes ou exécutants contre l’appropriation illicite de leur voix et de leur image. Nous avons été l’un des premiers partisans de la loi NO FAKES lorsqu’elle a été introduite l’année dernière, et nous défendrons toujours les droits des artistes. »
Du lancement viral aux relations publiques Crise
La controverse couve depuis le lancement de Sora 2, vers le 30 septembre. Le puissant générateur vidéo d’OpenAI a fait ses débuts avec une application de médias sociaux associée et une décision politique cruciale : un modèle de « désinscription » pour les personnages protégés par le droit d’auteur. Cela signifiait que n’importe quelle figure protégée pouvait être générée par défaut.
Les utilisateurs ont immédiatement inondé la plateforme de deepfakes surréalistes et souvent offensants. Ces vidéos présentaient tout le monde, des personnages de dessins animés bien-aimés aux personnages historiques décédés, dans des scénarios bizarres. La réaction a été rapide et sévère, forçant OpenAI à adopter une posture défensive.
Les critiques les plus viscérales sont venues des familles des célébrités décédées. Zelda Williams, fille de feu Robin Williams, a supplié les utilisateurs d’arrêter de créer des vidéos IA de son père.
Elle a décrit la douleur de voir”l’héritage de vraies personnes se condenser en… horrible, les marionnettes de TikTok est exaspérant.”
De même, la famille de Malcolm X a condamné les clips comme étant profondément irrespectueux. Ilyasah Shabazz, sa fille, a qualifié l’utilisation de l’image de son père de « cavalière et insensible ».
Le tollé a culminé avec un appel simple mais puissant de la fille de Martin Luther King Jr., Bernice King, qui a posté sur X: « Je suis d’accord concernant mon père. S’il vous plaît, arrêtez. »
Hollywood trace une ligne dans le sable
Les appels émotionnels des familles ont été amplifiés par une réponse unifiée de Hollywood. L’industrie, déjà méfiante face à la menace que représente l’IA générative pour la propriété intellectuelle, s’est mobilisée contre la nouvelle plateforme d’OpenAI.
Les grandes agences artistiques, qui représentent les artistes au centre de la controverse, ont mené la charge. La puissante Creative Artists Agency (CAA) a publié une déclaration publique acerbe le 8 octobre, qualifiant l’application de menace directe: « Il est clair qu’Open AI/Sora expose nos clients et leur propriété intellectuelle à des risques importants. le fardeau juridique en cas d’utilisation abusive incombe directement à l’entreprise d’IA. Le PDG Charles Rivkin a déclaré que « … il incombe à ceux-ci – et non aux titulaires de droits – d’empêcher toute violation du service Sora 2 », précisant clairement que les titulaires de droits ne seraient pas responsables du contrôle du service d’OpenAI.
Cette révolte à l’échelle de l’industrie a représenté une escalade significative, transformant le débat en une confrontation d’entreprise aux enjeux élevés.
Une ruée vers la reconquête Contrôle
Face à une véritable crise de relations publiques, OpenAI s’est empressée d’en contenir les conséquences avec une série de revirements politiques rapides. L’approche initiale de non-intervention de l’entreprise s’est avérée intenable face à la réaction coordonnée.
Le 3 octobre, quelques jours seulement après le lancement, Sam Altman a annoncé un abandon du système de désinscription.
Dans un article de blog, il a promis un cadre plus convivial pour les créateurs, déclarant qu’OpenAI « donnera aux titulaires de droits un contrôle plus granulaire sur la génération de personnages, similaire au modèle d’adhésion pour la ressemblance, mais avec des contrôles.”C’était le premier aveu majeur de l’échec de sa politique initiale.
Les changements se sont poursuivis tout au long du mois. Le 9 octobre, la société a modifié ses règles pour permettre aux représentants de personnalités publiques « récemment décédées » de demander formellement que leur image soit bloquée.
Cette politique a été mise à l’épreuve un peu plus d’une semaine plus tard. Le 17 octobre, OpenAI a annoncé qu’elle avait suspendu toutes les générations de Martin Luther King Jr. à la demande directe de sa succession, citant la création de « représentations irrespectueuses ».
Dans une déclaration expliquant cette décision, la société a reconnu l’équilibre délicat qu’elle essayait de trouver: « Bien qu’il existe de forts intérêts en matière de liberté d’expression dans la représentation de personnages historiques, OpenAI estime que les personnalités publiques et leurs familles devraient en fin de compte avoir le contrôle sur la manière dont leur image est représentée. est utilisé.”
Naviguer dans un champ de mines juridique et éthique
La tempête de feu Sora 2 met en évidence une vaste zone grise juridique et éthique. Les lois traditionnelles sur la diffamation ne s’appliquent généralement pas aux défunts, laissant aux familles des recours juridiques limités.
Leur principale voie d’action est un patchwork complexe et incohérent de lois étatiques régissant le droit à la publicité post-mortem. Ce vide juridique permet la création de contenu qui, même s’il n’est pas toujours exploité commercialement, provoque une détresse émotionnelle importante.
En outre, la controverse a remis sur le devant de la scène le débat non résolu sur la dépendance de l’IA à l’égard de grandes quantités de données Web récupérées pour la formation.
Les critiques affirment que les entreprises construisent des modèles puissants à partir de matériel protégé par le droit d’auteur sans autorisation, une question fondamentale que l’industrie n’a pas encore abordée. résoudre.
OpenAI a souligné son soutien à la loi NO FAKES comme faisant partie de la solution. Cependant, ce projet de loi fédéral a ses propres critiques. Les les défenseurs des droits numériques ont averti que le langage large du projet de loi pourrait créer un nouveau droit de propriété intellectuelle qui étoufferait la liberté d’expression et la parodie.
Cette série de concessions, culminant avec le nouveau partenariat avec Cranston et SAG-AFTRA, marque une évolution vers un avenir plus collaboratif et basé sur les autorisations.
Pourtant, il souligne également l’immense défi consistant à équilibrer l’innovation technologique rapide avec les droits fondamentaux des créateurs et des individus.