Anthropic, le laboratoire d’IA connu pour son chatbot Claude, a accepté d’appliquer et de maintenir des mesures de protection empêchant ses modèles de générer des paroles de chansons protégées par le droit d’auteur.

Cette décision fait partie d’un règlement juridique avec d’éminents éditeurs de musique, dont Universal Music Group et Concord Music Group, qui ont accusé la société de violation du droit d’auteur pour l’utilisation de chansons paroles sans autorisation dans les ensembles de données d’entraînement de l’IA.

Approuvé par États-Unis. Juge de district Eumi Lee, l’accord résout certaines parties d’une injonction préliminaire demandée par les éditeurs. Cela oblige Anthropic à maintenir ses « garde-corps » existants sur Claude et les modèles similaires pour empêcher la reproduction de matériel protégé par le droit d’auteur.

Cette affaire marque un tournant crucial dans la tension croissante entre l’innovation en matière d’IA et les droits de propriété intellectuelle.

Les allégations : Utilisation sans licence des paroles de chansons

Le procès, initié en octobre 2023, allègue qu’Anthropic a entraîné ses systèmes d’IA en utilisant les paroles de plus de 500 chansons sans obtenir de licences. Les éditeurs ont cité des exemples tels que Roar de Katy Perry. et des œuvres des Rolling Stones et de Beyoncé, accusant l’outil d’IA de générer des reproductions quasi textuelles de ces paroles.

Un exemple fourni dans le le dossier décrivait Claude produisant une « copie presque identique » de Perry’s Roar. Les éditeurs ont fait valoir que cette utilisation non autorisée viole non seulement la loi sur le droit d’auteur, mais porte également atteinte à leurs relations avec les auteurs-compositeurs et les autres parties prenantes.

“L’utilisation sans licence par Anthropic de matériel protégé par le droit d’auteur endommage de manière irréversible les relations des éditeurs avec les auteurs-compositeurs partenaires actuels et potentiels,”, indique le procès, soulignant l’impact plus large sur la confiance de l’industrie.

Garde-corps : comment ils fonctionnent et leur rôle dans la conformité

Les garde-fous sont des mesures techniques conçues pour limiter les sorties de l’IA, garantissant que des modèles comme Claude ne reproduisent pas de matériel protégé par des droits d’auteur ou nuisibles. Ces protections peuvent inclure des filtres qui bloquent des sorties spécifiques, des algorithmes conçus pour détecter et empêcher la reproduction textuelle des données d’entraînement et des mécanismes de surveillance. pour les interactions des utilisateurs avec le modèle.

Anthropic affirme que ses garde-fous actuels sont robustes et capables d’empêcher de telles sorties. Un porte-parole de la société a déclaré: « Nous avons mis en place de nombreux processus conçus pour empêcher une telle violation. Notre décision d’adhérer à cette stipulation est conforme à ces priorités.”

En vertu de l’accord, les éditeurs de musique sont autorisés à informer Anthropic si ces mesures échouent. La société est tenue d’enquêter et de rectifier rapidement toute lacune. Bien que Anthropic se réserve le droit d’optimiser ses méthodes, il ne peut diminuer l’efficacité de ses garanties.

Utilisation équitable et précédents légaux

Anthropic a défendu son utilisation de matériel protégé par le droit d’auteur sous la doctrine de « l’utilisation équitable », arguant que la formation de modèles d’IA génératifs implique application transformatrice des données. Les documents juridiques de la société indiquaient :”Nous continuons à espérer montrer que, conformément à la loi sur le droit d’auteur en vigueur, l’utilisation de matériel potentiellement protégé par le droit d’auteur dans la formation de modèles d’IA génératifs est une utilisation équitable par excellence.”

Cependant, le Les éditeurs affirment que cette pratique dévalorise leur travail et porte atteinte aux marchés de licences existants. Ils soutiennent que les sociétés d’IA contournent les canaux établis d’octroi de licences, ce qui entraîne un préjudice économique et une atteinte à la réputation des artistes et des éditeurs.

Ce procès constitue la d’abord se concentrer sur les paroles des ensembles de données de formation de l’IA, mais cela s’aligne sur des différends plus larges. OpenAI a fait face à des accusations similaires concernant son utilisation d’articles de presse, tandis que le New York Times et d’autres médias ont fait part de leurs inquiétudes quant au contenu généré par l’IA reproduisant leur travail.

Implications pour l’industrie et perspectives d’avenir

Le procès Anthropic met en évidence les défis liés à l’équilibre entre le progrès technologique et la protection de la propriété intellectuelle. Alors que l’IA générative fait de plus en plus partie intégrante d’industries allant du divertissement au journalisme, les entreprises sont sous pression pour composer avec ces complexités juridiques et éthiques.

Les accords de licence proactifs peuvent offrir une voie à suivre. OpenAI a déjà établi des partenariats avec des éditeurs comme TIME et Associated Press, tandis que Microsoft a conclu des accords avec HarperCollins pour utiliser ses titres de non-fiction pour la formation en IA.

L’accord d’Anthropic avec les éditeurs de musique pourrait servir de modèle pour de futures résolutions, démontrant l’importance de mécanismes de conformité transparents et applicables. Cependant, comme le juge Lee n’a pas encore statué sur la question plus large de savoir si la formation sans licence à l’IA constitue un usage équitable, l’issue de l’affaire pourrait créer un précédent.

Categories: IT Info