Anthrope ha ganado una victoria temprana en su batalla legal contra Universal Music Group, Abkco, y Concord Music Group, como un juez federal de California negó la solicitud de los editores de música de una orden judicial preliminar.

El fallo de los editores de la música, el juez de distrito de EE. UU., Determinado que los editores fallaron en”daños irreparables”de la Ai de la Ai, la práctica de AI AI. href=”https://www.reuters.com/legal/anthropic-wins-early-round-music-publishers-ai-copyright-case-2025-03-26/”target=”_ blank”> informa reuters.

antecedentes legales y las afirmaciones de los editoriales de musicales

en octubre de octubre de octubre. Los editores demandaron a Anthrope, acusando a la compañía AI de capacitar a su chatbot, Claude, en letras de canciones con derechos de autor. La queja alegó que el modelo de IA de Anthrope había sido entrenado en más de 500 canciones por artistas como Beyoncé, los Rolling Stones y los Beach Boys sin permiso.

La decisión no resuelve el caso completo, pero marca una victoria temprana para antrópico, que ha defendido consistentemente sus prácticas de capacitación de IA bajo protecciones de uso justo.

la respuesta y las implicaciones de la industria de la industria

anhope. El portavoz declaró que la compañía estaba satisfecha con el fallo del tribunal, llamando al intento de los editores de bloquear la capacitación de IA una”solicitud disruptiva y amorfa”.

El fallo se produce en medio de desafíos legales más amplios contra las compañías de IA. Meta, por ejemplo, se enfrenta a una demanda similar, donde los autores alegan que la compañía usó libros pirateados para capacitar a sus modelos de IA. Meta ha argumentado que dicho uso constituye un uso justo bajo la ley de derechos de autor de EE. UU.

De manera similar, en Francia, los editores y autores demandaron a Meta por capacitar sus sistemas de IA en contenido con derechos de autor sin una autorización adecuada. El creciente número de demandas indica que los tribunales en todo el mundo ahora se ven obligados a abordar cómo las leyes de derechos de autor se aplican a los datos de capacitación de IA.

Antes de esta batalla legal, Anthrope llegó a un acuerdo con los editoriales de música en enero de 2025, acordando implementar las salvaguardas, referidas como”Guardrailas”-Pedir su ai de los editoriales de la generación de copyrising Song Letras. Centrándose en si la capacitación de IA de Anthrope en sí misma violó la ley de derechos de autor, incluso si el chatbot ya no producía material con derechos de autor.

El caso en curso contra antrópico, junto con demandas similares contra Meta, OpenAi y cohere, subraya una lucha más amplia entre las compañías de IA y los propietarios de contenido. Ahora se les pide a los tribunales que determinen si la capacitación del modelo de IA en material con derechos de autor constituye un uso justo o si las empresas de IA deben asegurar licencias para cada contenido incluido en los conjuntos de datos de capacitación.

con las leyes de derechos de autor que no se mantienen en el ritmo de los avances de IA, decisiones legales como este desempeñará un papel crítico en la configuración de las regulaciones futuras de desarrollo de IAi y protección de contenido. Las demandas

condé nast, McClatchy y otros editores líderes en febrero presentaron una demanda contra Cohere, alegando que la empresa de IA usó ilegalmente su contenido con derechos de autor para capacitar a su”familia de comandos”de los modelos generativos.

La demanda de la demanda contra los que se presenta en el caso de un caso similar contra el caso de los casos similares, donde la Federación de la Federación de la Fedación de la Federación de Federación, (Fiestera, (Fiestera), que se presenta, que se presenta de un caso similar, donde se presenta el Federación de Federación de Federación (Featers). Una parte significativa de la industria editorial de la India, realizó acciones legales sobre presuntas violaciones de derechos de autor.

En diciembre de 2023, el New York Times demandó a Openai y Microsoft, alegando que los sistemas de IA como ChatGPT y Bing Chat se desarrollaron utilizando sus artículos sin permiso. La demanda argumentó que estos modelos de IA produjeron texto que se parecían mucho a los informes del periódico, eludiendo a los paredes de pago y reduciendo el tráfico a su plataforma.

Microsoft y OpenAI han defendido desde entonces sus prácticas en tribunales federales, afirmando que su uso de artículos de noticias accesibles públicamente para capacitar a los modelos de idiomas grandes (LLM) está protegido por debajo del uso justo. Colaboración

Si bien las disputas legales subrayan las tensiones entre editores y empresas de IA, algunas compañías han optado por los acuerdos de licencia como un camino a seguir. Operai, por ejemplo, ha asegurado acuerdos con VOX Media y el Atlántico, otorgando acceso a sus archivos a cambio de compensación y atribución adecuada.

Se han hecho arreglos similares con la revista Time, Future PLC, con sede en el Reino Unido, que cubre más de 200 marcas como Tom’s Guide, PC Gamer, TechRadar, y Marie Claire, y Condé Nast, que incluye contenido de la New Yorker, Vanity Saoger, Vanity Saoger, Vanity Saoger, Vanity Saoger, Vanity Saogy, Vanity Sauge, Vanity Saogy, Vanity Saogy, Vanity Saogy, Vanity Jaugh Appetit y Wired.

Estas asociaciones ofrecen a los editores una nueva fuente de ingresos al tiempo que proporciona a los desarrolladores de IA acceso autorizado a material de alta calidad. Sin embargo, muchos en la industria editorial siguen siendo escépticas, argumentando que estos acuerdos no abordan completamente las preocupaciones más amplias en torno a la capacitación de IA en conjuntos de datos que contienen contenido patentado sin permiso explícito.

Categories: IT Info