AI Firm Anthropic a recunoscut că Claude AI a fabricat o citare legală folosită ulterior de avocații săi, Latham & Watkins, într-un proces în domeniul dreptului de autor în curs de desfășurare. Compania și-a cerut scuze formal pentru ceea ce a descris drept „o greșeală jenantă și neintenționată”, după ce editorii de muzică au adus citarea eronată în atenția instanței.

Acest incident aruncă un punct de vedere dur asupra problemelor persistente de fiabilitate care afectează inteligența artificială în mediile profesionale cu mize mari. Depunerea instanței Anthropic a detaliat modul în care modelul său Claude.AI a oferit o citare cu ceea ce compania a numit „un titlu inexact și autori inexacți”, o eroare care, din când în când, a trecut prin procese de revizuire manuală. Admiterea se adaugă la o listă din ce în ce mai mare de cazuri de dezinformare generate de AI, determinând întrebări serioase cu privire la disponibilitatea actuală a unei astfel de tehnologii pentru cererile critice și subliniază natura indispensabilă a supravegherii umane minuțioase, în special ca investiții în tehnologii AI legale continuă să accelereze. Articolul academic printr-o căutare Google pentru a consolida mărturia experților, ea a însărcinat Claude.ai cu generarea unei citări legale formatate corespunzător, folosind linkul direct către articolul corect.

Cu toate acestea, AI a returnat un citație care, în timp ce includ titlul de publicație corect, anul și link-ul, a prezentat un titlu incorect și autori eronați. Această greșeală critică, împreună cu alte erori de formulare a AI-Introduse în notele de subsol, nu au fost prinse în timpul verificării manuale a citării manuale a firmei de avocatură. Toate acestea au trecut în apărarea legală a lui Antropic împotriva editorilor de muzică care au inițiat un proces în octombrie 2023, susținând că Claude AI a fost instruită ilegal folosind versuri de cântece protejate de drepturi de autor.

controlul judecătoresc și precedentele industriei

înainte de admiterea formală a Antropică, a fost admisiunea formală a Antropică, a fost admisiunea formală a companiei. Judecătorul Van Keulen a descris utilizarea potențială a unei citări fabricate drept „o problemă foarte serioasă și mormântă”, ca . În timpul acelei audieri, Matt Oppenheim, avocat pentru editorii de muzică, a dezvăluit că a contactat unul dintre pretincții autori și jurnalul, confirmând că nu există un astfel de articol și a sugerat: „Credem că este probabil ca doamna Chen să folosească instrumentul AI al Antropic Claude pentru a-și dezvolta argumentul și autoritatea de a-l susține. Probabil o „citare greșită”, mai degrabă decât o fabricare directă. Judecătorul Van Keulen a remarcat cu privire la „lumea diferenței dintre o citare ratată și o halucinație generată de AI”. Editorii de muzică s-au dus până la îndemnul judecătorului să sancționeze avocații Latham & Watkins pentru supraveghere, potrivit Law360 .

Această situație nu este un incident izolat în sfera tehnologiei legale. A recent Raport de la Verge a evidențiat o altă instanță recentă în care un judecător din California a criticat firmele de avocatură pentru că a depus „Bogus AI-Generat Research”. Mai mult, a Sorbara Law Article discută A 2025 Ontario, Ko v. Li, unde Justiția Myers a subliniat că este vorba În mod competent,”ca un avertisment împotriva erorilor care decurg din utilizarea AI.

în timp ce Antropic a ajuns anterior la o soluționare în ianuarie 2025, cu editori de muzică cu privire la versurile generatoare de Claude, disputa fundamentală privind legalitatea instruirii AI pe materialul protejat de drepturi de autor persistă. In March 2025, Anthropic had secured a procedural victory when a judge denied an injunction request by the publishers.

AI Hallucination: A Persistent Challenge

The phenomenon of AI models generating confident-sounding but entirely false or misleading information, widely known as ‘hallucination’, continues to be a significant hurdle for the artificial Industria informațiilor. AI-ul Meta, de exemplu, s-a confruntat cu reacții publice în iulie 2024 pentru că a negat în mod incorect un eveniment de știri major, raportat pe scară largă.

Joel Kaplan, șeful global al politicii Meta, a fost menționat candidat la halucinații ca o „problemă la nivel de industrie”. și a recunoscut că toate sistemele AI generative pot produce și produc rezultate inexacte. În mod îngrijorător, modelele și mai noi și se presupune că nu sunt imune; Modelele O3 și O4-Mini ale Openai, lansate în jurul lunii aprilie, prezintă rate de halucinație mai mari pe unele repere decât predecesorii lor. Un purtător de cuvânt al Openai care a transmis că abordarea acestor fabricări rămâne un domeniu activ și continuu de cercetare pentru companie.

Cercetare independentă, inclusiv lucrări prin Transluce AI, a sugerat că anumite tehnici de formare AI, cum ar fi învățarea de consolidare, ar putea amplifica în mod neadvertent aceste probleme de halucinație în modelele avansate, o perspectivă împărtășită de cercetătorul Neil Chowdhury în discuțiile avansate. Alte companii de tehnologie au fost nevoiți să abordeze public Blunders AI.

De exemplu, Chatbot de asistență pentru clienți Cursor AI a inventat o politică a companiei fictive la mijlocul lunii aprilie 2025, ceea ce a dus la o reacție semnificativă a utilizatorilor și la o scuză rapidă de la co-fondatorul său. El a recunoscut că „Bot-ul de asistență AI de prim rang” a fost responsabil pentru incident. Comentând implicațiile mai largi ale unor astfel de incidente, fostul om de știință al deciziei Google Cassie Kozyrkov a declarat , „Acest mizerie ar putea fi avocat dacă liderii au stat (1). AI nu poate să-și asume responsabilitatea pentru aceste greșeli (deci se încadrează pe tine) și (3) utilizatorii urăsc să fie păcăliți de o mașină care pozează ca om. Un studiu prezentat la Conferința CHI 2025 a relevat o constatare curioasă: indivizii ar putea arăta o preferință pentru sfaturile juridice generate de AI, dacă nu știu originea sa, în ciuda neaprinsării cunoscute a sistemelor AI actuale.

Această tendință ridică îngrijorări semnificative cu privire la potențialul utilizatorilor de a acționa asupra informațiilor defecte sau complet incorecte. Ca răspuns la aceste provocări, comunitatea de cercetare AI urmărește activ soluții. Un astfel de exemplu este sistemul de fapt SIFE (Evaluator de fapt-căutare-creșterea căutării), dezvoltat de cercetătorii de la Google DeepMind și Universitatea Stanford, care este conceput pentru a spori veridicitatea răspunsurilor de chatbot AI prin referință încrucișată, cu informații generate cu informații de la căutarea Google.

Anthropic, a asigurat că implementează noi proceduri interne pentru a preveni erorile de citare similare de la apariția în viitor. Totuși, acest incident servește ca o atenție puternică, la nivelul întregii industrii: verificarea umană riguroasă și sârguincioasă rămâne absolut critică, deoarece instrumentele de inteligență artificială devin din ce în ce mai integrate în fluxuri de lucru profesionale și critice.

Calea de urmat va necesita, fără îndoială AI Act, pentru a favoriza încrederea publică și asigurarea responsabilității în epoca în evoluție rapidă a AI-ului generativ

Categories: IT Info