Anthropic, el laboratorio de inteligencia artificial conocido por su chatbot Claude, acordó hacer cumplir y mantener medidas de seguridad que impidan que sus modelos generen letras de canciones con derechos de autor.
Esta decisión es parte de un acuerdo legal con destacados editores de música, incluidos Universal Music Group y Concord Music Group, que acusaron a la empresa de infracción de derechos de autor por utilizar letras de canciones sin autorización en conjuntos de datos de entrenamiento de IA.
Aprobado por U.S. Juez de distrito Eumi Lee, el acuerdo resuelve partes de una medida cautelar preliminar solicitada por los editores. Obliga a Anthropic a mantener sus”barandillas”existentes en Claude y modelos similares para evitar la reproducción de material protegido por derechos de autor.
El caso marca un punto crucial en la creciente tensión entre la innovación en IA y los derechos de propiedad intelectual.
Las acusaciones: Uso sin licencia de letras de canciones
La demanda, iniciada en octubre de 2023, alega que Anthropic entrenó sus sistemas de inteligencia artificial utilizando letras de más de 500 canciones sin obtener licencias. Los editores citaron ejemplos como Roar de Katy Perry. y obras de The Rolling Stones y Beyoncé, acusando a la herramienta de inteligencia artificial de generar reproducciones casi palabra por palabra de estas letras.
Un ejemplo proporcionado en la presentación describe a Claude produciendo una”copia casi idéntica”de Perry’s Roar. Los editores argumentaron que este uso no autorizado no sólo viola la ley de derechos de autor sino que también socava sus relaciones con los compositores y otras partes interesadas.
“El uso sin licencia de Anthropic de material protegido por derechos de autor daña irreversiblemente las relaciones de los editores con los compositores-socios actuales y potenciales,”, afirma la demanda, enfatizando el impacto más amplio en la confianza de la industria.
Barandillas: cómo funcionan y su papel en Cumplimiento
Las barreras de seguridad son medidas técnicas diseñadas para limitar las salidas de IA, garantizando que modelos como Claude no reproduzcan material dañino o protegido por derechos de autor. Estas salvaguardas pueden incluir filtros que bloqueen salidas específicas y algoritmos diseñados para detectar y prevenir. reproducción palabra por palabra de los datos de entrenamiento y mecanismos de supervisión de las interacciones del usuario con el modelo.
Anthropic afirma que sus barreras de seguridad actuales son sólidas y capaces de evitar tales resultados. Un portavoz de la empresa declaró: “Tenemos. existen numerosos procesos diseñados para prevenir dicha infracción. Nuestra decisión de celebrar esta estipulación es consistente con esas prioridades”.
Según el acuerdo, los editores de música pueden notificar a Anthropic si estas medidas fallan. La compañía debe investigar y rectificar cualquier deficiencia con prontitud. Anthropic se reserva el derecho de optimizar sus métodos, no puede disminuir la eficacia de sus salvaguardias.
Uso justo y precedentes legales
Anthropic ha defendido su uso de material protegido por derechos de autor bajo la doctrina del “uso justo”, argumentando que el entrenamiento de modelos generativos de IA implica una aplicación transformadora de datos.. Los documentos legales de la compañía declararon:”Seguimos esperando demostrar que, de acuerdo con la ley de derechos de autor existente, el uso de material potencialmente protegido por derechos de autor en el entrenamiento de modelos generativos de IA es un uso legítimo por excelencia”.
Sin embargo, la Los editores sostienen que esta práctica devalúa su trabajo e infringe los mercados de licencias existentes. Argumentan que las empresas de IA eluden los canales establecidos para la concesión de licencias, lo que genera daños económicos y de reputación para artistas y editores.
Esta demanda. es el primero en centrarse en letras en conjuntos de datos de entrenamiento de IA, pero se alinea con disputas más amplias. OpenAI ha enfrentado acusaciones similares por su uso de artículos de noticias, mientras que el New York Times y otros medios de comunicación han expresado su preocupación sobre el contenido generado por IA que replica sus contenidos. trabajo.
Implicaciones de la industria y perspectivas futuras
La demanda de Anthropic destaca los desafíos de equilibrar el avance tecnológico con las protecciones de propiedad intelectual. A medida que la IA generativa se vuelve cada vez más integral en industrias que van desde el entretenimiento hasta el periodismo, las empresas se ven presionadas a navegar estas complejidades legales y éticas.
Los acuerdos de licencia proactivos pueden ofrecer un camino a seguir. OpenAI ya se ha asociado con editores como TIME y Associated Press, mientras que Microsoft ha cerrado acuerdos con HarperCollins para utilizar sus títulos de no ficción para la capacitación en IA.
El acuerdo de Anthropic con editores de música puede servir como modelo para futuras resoluciones. demostrando la importancia de mecanismos de cumplimiento transparentes y ejecutables. Sin embargo, dado que el juez Lee aún no se ha pronunciado sobre la cuestión más amplia de si el entrenamiento de IA sin licencia constituye un uso justo, el resultado del caso podría sentar un precedente.