La firma de

ai Anthrope ha admitido que su Claude Ai fabricó una cita legal utilizada posteriormente por sus abogados, Latham & Watkins, en una demanda de derechos de autor en curso. La compañía se disculpó formalmente por lo que describió como”un error vergonzoso y involuntario”, después de que los editores de música trajeron la cita errónea a la atención de la corte.

Este incidente arroja un destacado destacado sobre los problemas de confiabilidad persistentes que afectan la inteligencia artificial en los entornos profesionales de alto riesgo. La presentación del Tribunal de Anthrope detalló cómo su modelo Claude.AI proporcionó una cita con lo que la compañía calificó”un título inexacto y autores inexactos”, un error que lamentablemente pasó a través de procesos de revisión manual. La admisión se suma a una lista creciente de casos de desinformación generados por la IA, lo que provoca serias preguntas sobre la preparación actual de dicha tecnología para aplicaciones críticas y subrayando la naturaleza indispensable de la supervisión humana meticulosa, particularmente a medida que la inversión en tecnologías legales de IA continúa acelerando. Artículo a través de una búsqueda en Google para reforzar potencialmente el testimonio de expertos, le encargó a Claude.ai con la generación de una cita legal con formato correctamente utilizando el enlace directo al artículo correcto.

Sin embargo, la IA devolvió una cita que, aunque incluía el título de publicación, año y enlace correctos, presentaba un título incorrecto del artículo y autores erróneos. Este error crítico, junto con otros errores de redacción de IA introducidos en las notas al pie, no fue capturado durante el control de citas manual del bufete de abogados. Todo esto ocurrió dentro de la defensa legal de Anthrope contra los editores de música que iniciaron una demanda en octubre de 2023, alegando que el Claude AI fue capacitado ilegalmente utilizando letras de canciones con derechos de autor.

escrutinio judicial y precedentes de la industria

Antes de la admisión formal de Anthropy, el magistrado de los Estados Unidos, el juez de los Estados Unidos, el juez de los Estados Unidos había ordenado a los alumnos de la compañía. El juez Van Keulen describió el uso potencial de una cita fabricada como”un problema muy grave y grave”, como . Durante esa audiencia, Matt Oppenheim, abogado de los editores de música, reveló que había contactado a uno de los supuestos autores y el Journal, confirmando que no existía dicho artículo, y sugirió:”Creemos que es probable que sea probable que la Sra. Chen usara la herramienta AI de Anthrope Claude para desarrollar su argumento y su autoridad para apoyarlo”. Probablemente fue una”citación errónea”en lugar de una fabricación directa. El juez Van Keulen comentó intencionadamente el”mundo de la diferencia entre una cita perdida y una alucinación generada por la IA”. Los editores de música fueron tan lejos como para instar al juez a sancionar a los abogados de Latham & Watkins para la supervisión, según Law360 .

Esta situación no es un incidente aislado dentro de la esfera tecnológica legal. Un reciente Informe de Verge Destacó otra instancia reciente en la que un juez de California criticó a las firmas de abogados por enviar”Investigaciones Generadas AI Generadas”. Furthermore, a Sorbara Law article discusses a 2025 Ontario case, Ko v. Li, where Justice Myers emphasized that it is the lawyer’s duty “to use technology, conduct research, and prepare court documents Competentemente,”como una advertencia contra los errores derivados del uso de la IA.

Si bien Anthrope había llegado a un acuerdo en enero de 2025 con los editores de música con respecto a las letras de Generación de Claude, la disputa fundamental sobre la legalidad de la capacitación de AI sobre el material con derechos de autor persiste. En marzo de 2025, Anthrope había asegurado una victoria procesal cuando un juez negó una solicitud de orden judicial por parte de los editores.

alucinación ai: un desafío persistente

El fenómeno de los modelos de IA que generan a los modelos de IA que se convierte en una forma segura de manera más falsa o una información incorrecta, ampliamente conocida como ‘Hallucination’, continúa un punto de seguridad significativo para ser una información significativa para ser una información más falsa o abasteciente, conocida como‘ Hallucination ’, una‘ Hallucination’, que es una información significativa de manera segura. Industria de inteligencia artificial. La IA de Meta, por ejemplo, enfrentó una reacción pública en julio de 2024 por negar incorrectamente un evento de noticias importante y ampliamente informado.

Joel Kaplan, jefe de política global de Meta, se refirió con franqueza a las alucinaciones como un”problema de toda la industria”. y reconoció que todos los sistemas de IA generativos pueden producir y hacer salidas inexactas. Preocupantemente, incluso los modelos más nuevos y supuestamente más avanzados no son inmunes; Los modelos O3 y O4-Mini de Openai, lanzados alrededor de abril, se informan que exhiben tasas de alucinación más altas en algunos puntos de referencia que sus predecesores. Un portavoz de OpenAI transmitió que que aborde estas fabricaciones sigue siendo un área de investigación activa y continua para la empresa.

La investigación independiente, incluido el trabajo de Translucion AI, ha sugerido que ciertas técnicas de capacitación de IA, como el aprendizaje de refuerzo de refuerzo, podrían amplificar inadvertidamente estos problemas de alucinación en los modelos avanzados, una perspectiva compartida por chowdhury de los investigadores en la discusión en la discusión en la discusión en la discusión con la tecnología. Otras compañías de tecnología también han tenido que abordar públicamente los errores de IA.

Por ejemplo, el chatbot de atención al cliente de Cursor AI inventó una política de compañía ficticia a mediados de abril 2025, lo que llevó a una reacción de usuario significativa y una rápida disculpa de su cofundador. Admitió que su”Bot de apoyo de IA de primera línea”fue responsable del incidente. Al comentar sobre las implicaciones más amplias de tales incidentes, el ex científico de la decisión jefe de Google Cassie Kozyrkov dijo ,”este inesperado podría haber sido los líderes de Ai (1) (1) (2) (2) (2) (2) (2) (2) (2). No se puede asumir la responsabilidad de esos errores (por lo que se encuentra en usted), y (3) los usuarios odian ser engañados por una máquina que se hace pasar por un humano”.

navegar por IA en campos legales y otros campos críticos

La profesión legal, entre otros, está aturdiendo activamente las complejidades y las responsabilidades de la integración de las herramientas de IA en sus flujo de trabajo. Un estudio presentado en la conferencia CHI 2025 reveló un hallazgo curioso: las personas pueden mostrar una preferencia por el asesoramiento legal generado por IA si no son conscientes de su origen, a pesar de la falta de fiabilidad conocida de los sistemas de IA actuales.

Esta tendencia plantea preocupaciones significativas sobre el potencial de los usuarios de actuar sobre información fallada o completamente incorrecta. En respuesta a estos desafíos, la comunidad de investigación de IA está buscando activamente soluciones. Un ejemplo de este ejemplo es el sistema seguro (evaluador de factores de búsqueda de búsqueda), desarrollado por investigadores de Google Deepmind y Stanford University, que está diseñado para mejorar la veracidad de las respuestas de AI Chatbot al referencias cruzadas de hechos generados por la información de la búsqueda de Google. Sin embargo, este incidente sirve como una precaución potente, en toda la industria: la verificación humana rigurosa y diligente sigue siendo absolutamente crítica, ya que las herramientas de inteligencia artificial se integran cada vez más en flujos de trabajo profesionales y críticos.

El camino hacia adelante requerirá indudablemente el desarrollo de los sistemas de IA más confiables, junto con las directrices de uso robusto y potenciales y potencialmente nuevos reguladores, al igual que las transparentes transparentes, al igual que las transparentes de la Eu, las transparentes de la EU que se ven. ACT, para fomentar la confianza pública y garantizar la responsabilidad en la edad de IA generativa en rápida evolución.

Categories: IT Info