AI-yritys Antropic on myöntänyt Claude AI: n valmistetun laillisen viittauksen, jota sen asianajajat Latham & Watkins myöhemmin käyttävät käynnissä olevassa tekijänoikeusasiassa. Yhtiö pyysi virallisesti anteeksi, mitä se kuvaili”kiusalliseksi ja tahattomaksi virheeksi”, kun musiikin kustantajat toi virheellisen viittauksen tuomioistuimen huomion. Antropian tuomioistuin jätti yksityiskohtaisesti kuinka sen Claude.AI-malli antoi viittauksen siihen, mitä yritys nimitti “epätarkkoksi otsikosta ja epätarkkoista kirjoittajista”, virhe, joka valitettavasti liukastui manuaalisten tarkistusprosessien kautta. Sisäänpääsy lisää kasvavaa luetteloa AI: n tuotetuista väärien tietojen tapauksista, jotka herättävät vakavia kysymyksiä tällaisen tekniikan nykyisestä valmiudesta kriittisiin sovelluksiin ja korostamaan huolellisen ihmisen valvonnan välttämättömän luonteen, etenkin kun laillisen AI-tekniikan investoinnit edelleen. Artikkeli Google-haun kautta mahdollisesti vahvistaa asiantuntijatodistuksia, hän antoi tehtäväksi Claude.ai luomalla oikein muotoilun laillisen viittauksen käyttämällä suoraa linkkiä oikeaan artikkeliin.
AI kuitenkin palautti viittauksen, joka sisälsi samalla oikean julkaisun otsikon, vuoden ja linkin, ja esitteli virheellisen artikkelin otsikon ja virheelliset kirjoittajat. Tätä kriittistä virhettä yhdessä muiden AI: n esittelemien sanamuotovirheiden kanssa alaviitteissä ei ollut kiinni lakiasiaintoimiston manuaalisen viittauksen tarkistuksen aikana. Tämä kaikki tapahtui antropian oikeudellisen puolustuksen suhteen musiikkijulkaisijoita vastaan, jotka aloittivat oikeusjutun lokakuussa 2023, väittäen, että Claude AI: tä koulutettiin laittomasti tekijänoikeuksien alaisten laulun sanoitusten käyttämällä. väitteet. Tuomari Van Keulen kuvaili valmistetun viittauksen potentiaalista käyttöä “erittäin vakavaksi ja vakavaksi kysymykseksi”, kuten . Kuulemistilaisten julkaisijoiden asianajaja Matt Oppenheim paljasti, että hän oli ottanut yhteyttä yhteen väitetyistä kirjailijoista ja lehdestä vahvistaen, ettei tällaista artikkelia ollut olemassa, ja ehdotti: “Uskomme, että on todennäköistä, että Chen käytti Antropicin AI-työkalua kehittääkseen väitteensä ja auktoriteettinsa tukemaan sitä.”väitti, että se oli todennäköisesti”väärinkäyttäjä”eikä suoraa valmistusta. Tuomari Van Keulen huomautti huomattavasti”eron maailmasta menetetyn viittauksen ja AI: n tuottaman hallusinaation välillä”. Musiikkijulkaisijat menivät niin pitkälle, että kehotettiin tuomaria seuraamukseen Latham & Watkinsin asianajajat valvonnasta Laki360 .
Tämä tilanne ei ole yksittäinen tapaus laillisen teknologian alueella. Äskettäinen raportti Verge korosti toista äskettäistä esimerkkiä, jossa Kalifornian tuomari kritisoi lakiasiaintoimistoja lähettämään “BOGUS AI-Generated Research.”Lisäksi a Sorbara Law-artikkeli käsittelee 2025 Ontario Case, Ko-v. LI, ja jos kyseessä on oikeudellinen asiakirja-aineisto ja Totta puhuen,”AI: n käytöstä johtuvien virheiden varoituksena. Maaliskuussa 2025 antropinen oli saanut menettelyllisen voiton, kun tuomari kielsi julkaisijoiden määräyspyynnön.
ai hallusinaatio: jatkuva haaste
AI-mallejen ilmiö, joka tuottaa luottavaista, ja jatkuvaa haastetta, joka tunnetaan laajasti Hallucation’, jatkoa, että merkitsevästi Tiedusteluteollisuus. Esimerkiksi Meta’s AI kohtasi julkisen takaiskun heinäkuussa 2024 virheellisesti, koska se kielsi suuren, laajalti ilmoitetun uutisen tapahtuman.
Joel Kaplan, Meta: n globaali politiikan päällikkö, viittasi rehellisesti hallusinaatioihin”koko teollisuuden laajuisena kysymyksenä”. ja tunnusti, että kaikki generatiiviset AI-järjestelmät voivat ja tehdä epätarkkoja lähtöjä. Huolestuttavaa, että jopa uudemmat ja oletettavasti edistyneemmat mallit eivät ole immuuneja; Openain O3-ja O4-Mini-mallit, jotka on julkaistu huhtikuussa, on ilmoitettu olevan korkeampi hallusinaatioaste joillakin vertailuarvoilla kuin heidän edeltäjänsä. Openai-tiedottaja välittää, että näiden valmistusten käsitteleminen on edelleen aktiivinen ja jatkuva tutkimusalue yritykselle.
riippumaton tutkimus, mukaan lukien Transuce AI: n työ, on ehdottanut, että tietyt AI-koulutustekniikat, kuten vahvistusoppiminen, saattavat vahingossa vahvistaa näitä hallukinaatiokysymyksiä edistyneissä malleissa, ja tutkija Neil Chowdhury jakautuu teknologia-kierroksen kanssa. Muiden teknologiayritysten on myös pitänyt käsitellä julkisesti AI-virheitä. Hän myönsi, että heidän”etulinjan AI-tuki-bot”oli vastuussa tapahtumasta. Kommentoidessaan tällaisten tapausten laajempia vaikutuksia, entinen Googlen pääpäätöksen tutkija Cassie Kozyrkov totesi , “tämä messu olisi voinut olla johtanut, jos alien alien ali AI ei voi ottaa vastuuta näistä virheistä (joten se kuuluu sinuun), ja (3) käyttäjät vihaavat ihmisenä poseeraavan koneen huijaamista.”
navigoi AI: n laillisilla ja muilla kriittisillä aloilla
oikeudellisen ammatin, muun muassa, on aktiivisesti ryntää sen monimutkaisuuksien ja vastuiden kanssa integroidun AI-työkalujen kanssa. CHI 2025-konferenssissa esitelty tutkimus paljasti utelias havainto: yksilöt saattavat osoittaa AI-luomalle oikeudelliselle neuvolle, jos he eivät ole tietoisia sen alkuperästä huolimatta nykyisten AI-järjestelmien tunnettuun epäluotettavuuteen. Vastauksena näihin haasteisiin AI-tutkimusyhteisö harjoittaa aktiivisesti ratkaisuja. Yksi tällainen esimerkki on Google Deepmindin ja Stanford Universityn tutkijoiden kehittämä turvallinen (hakuvalmistettu tosiasiallisuuden arvioija)-järjestelmä, jonka tarkoituksena on parantaa AI-chatbot-vastausten totuudenmukaisuutta Google-haun tiedoilla. Tämä tapaus toimii kuitenkin voimakkaana, teollisuudenlaajuisena varovaisena: tiukka ja ahkera ihmisen todentaminen on ehdottoman kriittistä, kun tekoälyn työkalut integroituvat yhä enemmän ammatillisiin ja kriittisiin työnkulkuihin.
Polku eteenpäin vaatii epäilemättä luotettavien AI-järjestelmien kehittämistä, jotka on liitetty selkeään, kestävän käyttöohjeeseen ja potentiaalisesti uuteen säätelyyn. ACT, edistää julkista luottamusta ja varmistaa vastuu generatiivisen AI: n nopeasti kehittyvästä iästä.