A empresa Ai Anthrópica admitiu que sua IA Claude fabricou uma citação legal posteriormente usada por seus advogados, Latham & Watkins, em um processo em andamento de direitos autorais. A empresa se desculpou formalmente pelo que descreveu como”um erro embaraçoso e não intencional”, depois que os editores de música trouxeram a citação errônea à atenção do tribunal. O registro judicial da Anthrópica detalhou como seu modelo Claude.ai forneceu uma citação com o que a empresa denominou”um título impreciso e autores imprecisos”, um erro que lamentavelmente passou por processos de revisão manual. A admissão contribui para uma lista crescente de casos de informação errônea gerada pela IA, provocando questões sérias sobre a atual prontidão dessa tecnologia para aplicações críticas e ressaltar a natureza indispensável da supervisão humana meticulosa, particularmente como o investimento em Tecnologias Legais de AIs continua a acelerar. Artigo acadêmico relevante por meio de uma pesquisa no Google para reforçar potencialmente o testemunho de especialistas, ela encarregou Claude.ai de gerar uma citação legal adequadamente formatada usando o link direto para o artigo correto. Esse erro crítico, juntamente com outros erros de redação introduzido pela IA nas notas de rodapé, não foi capturado durante a verificação de citação manual do escritório de advocacia. Tudo isso transpirou na defesa legal do Antrópico contra editores de música que iniciaram um processo em outubro de 2023, alegando que a IA de Claude foi treinada ilegalmente usando letras de músicas com direitos autorais. Judge van Keulen described the potential use of a fabricated citation as “a very serious and grave issue,”as Music Business Worldwide Relatórios . Durante essa audiência, Matt Oppenheim, advogado dos editores de música, revelou que havia entrado em contato com um dos supostos autores e a revista, confirmando que não existia esse artigo e sugeriu: “Acreditamos que é provável que a Sra. Chen tenha usado o que o Aiplic da Antrópico Claude para desenvolver seu argumento e autoridade para apoiá-lo. Provavelmente uma”uma citação errada”em vez de uma fabricação direta. O juiz Van Keulen comentou sobre o”mundo da diferença entre uma citação perdida e uma alucinação gerada pela IA”. Os editores de música chegaram ao ponto de exortar o juiz a sancionar os advogados de Latham & Watkins pela supervisão, de acordo com Law360 .
Esta situação não é um incidente isolado na esfera da tecnologia jurídica. A recent report from The Verge highlighted another recent instance where a California judge criticized law firms for submitting “bogus AI-generated research.”Além disso, a Sorbara Law Article Dousished A 2025 Ontário, e Ko V. Li, onde os Justes Dissets Snafas Sninfas Competentemente,”como um aviso contra erros decorrentes do uso de IA. Em março de 2025, o Antrópico havia garantido uma vitória processual quando um juiz negou um pedido de liminar dos editores. indústria de inteligência. A IA da Meta, por exemplo, enfrentou uma reação pública em julho de 2024 por negar incorretamente um grande evento de notícias amplamente relatado. e reconheceu que todos os sistemas de IA generativos podem produzir saídas imprecisas. Preocupadamente, modelos ainda mais novos e supostamente mais avançados não são imunes; Os modelos O3 e O4-mini da Openai, lançados por volta de abril, exibem taxas de alucinação mais altas em alguns benchmarks do que seus antecessores. Um porta-voz do OpenAI transmitiu que abordar essas fabricação continua sendo uma área ativa e contínua de pesquisa para a empresa. Outras empresas de tecnologia também tiveram que abordar publicamente os erros de IA. Ele admitiu que o”bot de suporte da AI da linha de frente”foi responsável pelo incidente. Comentando sobre as implicações mais amplas de tais incidentes, o ex-cientista da decisão-chefe do Google Cassie Kozyrkov afirmou
navegar na IA em áreas legais e outras críticas
A profissão jurídica, entre outros, está agitando ativamente as complexidades e responsabilidades das complexidades das responsabilidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades das complexidades. Um estudo apresentado na conferência CHI 2025 revelou uma descoberta curiosa: os indivíduos podem mostrar uma preferência por consultoria jurídica gerada por IA se não tiverem conhecimento de sua origem, apesar da falta de confiabilidade conhecida dos sistemas atuais de IA. Em resposta a esses desafios, a comunidade de pesquisa da IA está buscando ativamente soluções. Um exemplo é o sistema seguro (Avaliador de factualidade de pesquisa com agiotas), desenvolvido por pesquisadores da Universidade do Google DeepMind e Stanford, que foi projetada para aprimorar a veracidade das respostas da AI Chatbot, com a referência cruzada dos fatos que geram futuros, para prevenir a Pesquisa do Google. Esse incidente, no entanto, serve como um poderoso e em toda a indústria: a verificação humana rigorosa e diligente permanece absolutamente crítica à medida que as ferramentas de inteligência artificial se tornam cada vez mais integradas aos fluxos de trabalho profissionais e críticos. Ato, promover a confiança do público e garantir a responsabilidade na idade em rápida evolução da IA generativa.