Firma AI Anthropic przyznała, że jego Claude AI sfabrykowała cytowanie prawne, które następnie wykorzystano przez prawników, Latham & Watkins, w trwającym pozwu prawem autorskim. Firma formalnie przeprosiła za to, co określiła jako „zawstydzający i niezamierzony błąd”, po tym, jak wydawcy muzyczni zwrócili uwagę sądu na temat błędnego cytowania.
Ten incydent rzuca surowe światło na trwałe problemy związane z niezawodnością, nękając sztuczną inteligencję w środowiskach zawodowych. Sąd Anthropica zgłosił szczegółowo, w jaki sposób jego model Claude.ai dostarczył cytat z tym, co firma nazywała „niedokładnym tytułem i niedokładnymi autorów”, błąd, który niestety prześlizgnął się przez procesy recenzji ręcznej. Wstęp zwiększa rosnącą listę spraw generowanych przez AI przypadków dezinformacji, co powoduje poważne pytania dotyczące obecnej gotowości takiej technologii do krytycznych zastosowań i podkreślając niezbędny charakter skrupulatnego nadzoru ludzkiego, szczególnie gdy inwestycja w legalne technologie AI nadal przyspiesza.
Ivana Dukanovic, powiązanie w Latham i Watkins, stwierdziło, że w swoim stanowisku jest to zgodne z identyfikacją zespołu. Artykuł akademicki za pośrednictwem wyszukiwania Google w celu potencjalnie wzmocnienia zeznań ekspertów, zleciła Claude.ai do generowania odpowiednio sformatowanego cytatu prawnego za pomocą bezpośredniego linku do prawidłowego artykułu.
Jednak sztuczna inteligencja zwróciła cytat, który, obejmując prawidłowy tytuł publikacji, rok i link, zawierała nieprawidłowy tytuł artykułu i błąd. Ten krytyczny błąd, wraz z innymi błędami sformułowania z wprowadzonym przez AI w przypisach, nie został złapany podczas kontrolowania ręcznego cytowania firmy prawniczej. Wszystko to wydarzyło się w obronie prawnej Anthropica przed wydawcami muzycznymi, którzy zainicjowali pozew w październiku 2023 r., Twierdzi, że Claude AI został nielegalnie przeszkolony przy użyciu tekstu piosenek.
Sąd sądowy i precedenenty branżowe
Formalne przyznanie się do antropika, amerykańskie sędziowskie sędziowskie sędziowskie keulen. Sędzia Van Keulen opisał potencjalne zastosowanie sfabrykowanego cytatu jako „bardzo poważny i poważny problem”, jak . Podczas tego przesłuchania Matt Oppenheim, adwokat wydawców muzycznych, ujawnił, że skontaktował się z jednym z rzekomych autorów i czasopisma, nie potwierdzając takiego artykułu, i zasugerował: „Uważamy, że jest prawdopodobne, że pani Chen użyła narzędzia AI AI AI, aby rozwinąć argument i autorytet do poparcia go.” twierdził, że prawdopodobnie był to „mis cytat”, a nie jawna produkcja. Sędzia Van Keulen wyraźnie zauważył „świat różnicy między pominiętym cytatem a halucynacją generowaną przez AI”. Wydawcy muzyczni posunęli się do sędziego do sankcjonowania adwokatów Latham & Watkins za nadzór, zgodnie z Law360 .
Ta sytuacja nie jest odosobnionym incydentem w sferze technicznej. Ostatnie Raport z Verge Podkreślił kolejny ostatni przykład, w którym sędzia kalifornijska skrytykował firmy prawnicze za przesłanie „Bogus AI-Generated Research.” Ponadto, a artykuł o prawie sorbara omawia technologię Prepreade, a Prepickiet, w sprawie, aby użyć technologii, w tym roku, i przygotowuje się o i i przygotowuje się o idary. Dokumenty kompetentnie „Jako ostrzeżenie przed błędami wynikającymi z użycia AI.
Podczas gdy antropic wcześniej osiągnął osadę w styczniu 2025 r. Z wydawcami muzycznymi dotyczącymi tekstów generujących teksty, podstawowy spór o legalność AI dotyczących materiałów autorskich do materiałów. W marcu 2025 r. Anthropic zabezpieczył zwycięstwo proceduralne, gdy sędzia odrzucił wniosek o nakaz wydawców.
Halucynacja AI: uporczywe wyzwanie
Zjawisko modeli AI generujących pewność siebie, ale całkiem fałszywe lub opublikowane informacje, powszechnie znane jako „h “m hallucynacji, aby stać się znaczącym hurdem dla AI, generującym inteligencję. przemysł. Na przykład AI Meta stanęła w obliczu publicznego luzu w lipcu 2024 r. Za niepoprawną odmowę głównego, powszechnie zgłaszanego wydarzenia informacyjnego.
Joel Kaplan, globalnego szefa polityki Meta, szczerze nazywany halucynacjami jako „problem w branży”. i potwierdził, że wszystkie generatywne systemy AI mogą i wykonać niedokładne wyniki. Niepokojące, nawet nowsze i podobno bardziej zaawansowane modele nie są odporne; Modele O3 i O4-Mini Openai, wydane około kwietnia, podobno wykazują wyższe wskaźniki halucynacji na niektórych testach porównawczych niż ich poprzednicy. Rzecznik Openai przekazany, że rozwiązanie tych wytwarzania pozostaje aktywnym i bieżącym obszarem badań dla firmy.
Niezależne badania, w tym prace Transluce AI, sugerowały, że niektóre techniki szkolenia AI, takie jak uczenie się wzmocnienia, mogą przypadkowo wzmocnić te problemy z halucynacją w zaawansowanych modelach, perspektywiczną dzieloną przez badacza neil chowdhury w dyskusji technicznej. Inne firmy technologiczne musiały również publicznie zająć się błędami AI.
Na przykład, chatbot obsługi klienta AI wynalazł fikcyjną politykę firmy w połowie kwietnia 2025 r., Co doprowadziło do znacznego reakcji użytkownika i szybkiego przeprosin ze strony współzałożyciela. Przyznał, że ich „Bot wsparcia AI Front-Line” był odpowiedzialny za incydent. Komentując szersze implikacje takich incydentów, były główny naukowiec z Google Cassie Kozyrkov stwierdził , „Messowi, gdyby przywódcy rozumiały to (1) popełniają błędy, (2) AI nie może brać odpowiedzialności za te błędy (więc na ciebie padnie) i (3) użytkownicy nienawidzą oszukiwania przez maszynę udającą człowieka. “