Firma AI Anthropic przyznała, że ​​jego Claude AI sfabrykowała cytowanie prawne, które następnie wykorzystano przez prawników, Latham & Watkins, w trwającym pozwu prawem autorskim. Firma formalnie przeprosiła za to, co określiła jako „zawstydzający i niezamierzony błąd”, po tym, jak wydawcy muzyczni zwrócili uwagę sądu na temat błędnego cytowania.

Ten incydent rzuca surowe światło na trwałe problemy związane z niezawodnością, nękając sztuczną inteligencję w środowiskach zawodowych. Sąd Anthropica zgłosił szczegółowo, w jaki sposób jego model Claude.ai dostarczył cytat z tym, co firma nazywała „niedokładnym tytułem i niedokładnymi autorów”, błąd, który niestety prześlizgnął się przez procesy recenzji ręcznej. Wstęp zwiększa rosnącą listę spraw generowanych przez AI przypadków dezinformacji, co powoduje poważne pytania dotyczące obecnej gotowości takiej technologii do krytycznych zastosowań i podkreślając niezbędny charakter skrupulatnego nadzoru ludzkiego, szczególnie gdy inwestycja w legalne technologie AI nadal przyspiesza.

Ivana Dukanovic, powiązanie w Latham i Watkins, stwierdziło, że w swoim stanowisku jest to zgodne z identyfikacją zespołu. Artykuł akademicki za pośrednictwem wyszukiwania Google w celu potencjalnie wzmocnienia zeznań ekspertów, zleciła Claude.ai do generowania odpowiednio sformatowanego cytatu prawnego za pomocą bezpośredniego linku do prawidłowego artykułu.

Jednak sztuczna inteligencja zwróciła cytat, który, obejmując prawidłowy tytuł publikacji, rok i link, zawierała nieprawidłowy tytuł artykułu i błąd. Ten krytyczny błąd, wraz z innymi błędami sformułowania z wprowadzonym przez AI w przypisach, nie został złapany podczas kontrolowania ręcznego cytowania firmy prawniczej. Wszystko to wydarzyło się w obronie prawnej Anthropica przed wydawcami muzycznymi, którzy zainicjowali pozew w październiku 2023 r., Twierdzi, że Claude AI został nielegalnie przeszkolony przy użyciu tekstu piosenek.

Sąd sądowy i precedenenty branżowe

Formalne przyznanie się do antropika, amerykańskie sędziowskie sędziowskie sędziowskie keulen. Sędzia Van Keulen opisał potencjalne zastosowanie sfabrykowanego cytatu jako „bardzo poważny i poważny problem”, jak . Podczas tego przesłuchania Matt Oppenheim, adwokat wydawców muzycznych, ujawnił, że skontaktował się z jednym z rzekomych autorów i czasopisma, nie potwierdzając takiego artykułu, i zasugerował: „Uważamy, że jest prawdopodobne, że pani Chen użyła narzędzia AI AI AI, aby rozwinąć argument i autorytet do poparcia go.” twierdził, że prawdopodobnie był to „mis cytat”, a nie jawna produkcja. Sędzia Van Keulen wyraźnie zauważył „świat różnicy między pominiętym cytatem a halucynacją generowaną przez AI”. Wydawcy muzyczni posunęli się do sędziego do sankcjonowania adwokatów Latham & Watkins za nadzór, zgodnie z Law360 .

Ta sytuacja nie jest odosobnionym incydentem w sferze technicznej. Ostatnie Raport z Verge Podkreślił kolejny ostatni przykład, w którym sędzia kalifornijska skrytykował firmy prawnicze za przesłanie „Bogus AI-Generated Research.” Ponadto, a artykuł o prawie sorbara omawia technologię Prepreade, a Prepickiet, w sprawie, aby użyć technologii, w tym roku, i przygotowuje się o i i przygotowuje się o idary. Dokumenty kompetentnie „Jako ostrzeżenie przed błędami wynikającymi z użycia AI.

Podczas gdy antropic wcześniej osiągnął osadę w styczniu 2025 r. Z wydawcami muzycznymi dotyczącymi tekstów generujących teksty, podstawowy spór o legalność AI dotyczących materiałów autorskich do materiałów. W marcu 2025 r. Anthropic zabezpieczył zwycięstwo proceduralne, gdy sędzia odrzucił wniosek o nakaz wydawców.

Halucynacja AI: uporczywe wyzwanie

Zjawisko modeli AI generujących pewność siebie, ale całkiem fałszywe lub opublikowane informacje, powszechnie znane jako „h “m hallucynacji, aby stać się znaczącym hurdem dla AI, generującym inteligencję. przemysł. Na przykład AI Meta stanęła w obliczu publicznego luzu w lipcu 2024 r. Za niepoprawną odmowę głównego, powszechnie zgłaszanego wydarzenia informacyjnego.

Joel Kaplan, globalnego szefa polityki Meta, szczerze nazywany halucynacjami jako „problem w branży”. i potwierdził, że wszystkie generatywne systemy AI mogą i wykonać niedokładne wyniki. Niepokojące, nawet nowsze i podobno bardziej zaawansowane modele nie są odporne; Modele O3 i O4-Mini Openai, wydane około kwietnia, podobno wykazują wyższe wskaźniki halucynacji na niektórych testach porównawczych niż ich poprzednicy. Rzecznik Openai przekazany, że rozwiązanie tych wytwarzania pozostaje aktywnym i bieżącym obszarem badań dla firmy.

Niezależne badania, w tym prace Transluce AI, sugerowały, że niektóre techniki szkolenia AI, takie jak uczenie się wzmocnienia, mogą przypadkowo wzmocnić te problemy z halucynacją w zaawansowanych modelach, perspektywiczną dzieloną przez badacza neil chowdhury w dyskusji technicznej. Inne firmy technologiczne musiały również publicznie zająć się błędami AI.

Na przykład, chatbot obsługi klienta AI wynalazł fikcyjną politykę firmy w połowie kwietnia 2025 r., Co doprowadziło do znacznego reakcji użytkownika i szybkiego przeprosin ze strony współzałożyciela. Przyznał, że ich „Bot wsparcia AI Front-Line” był odpowiedzialny za incydent. Komentując szersze implikacje takich incydentów, były główny naukowiec z Google Cassie Kozyrkov stwierdził , „Messowi, gdyby przywódcy rozumiały to (1) popełniają błędy, (2) AI nie może brać odpowiedzialności za te błędy (więc na ciebie padnie) i (3) użytkownicy nienawidzą oszukiwania przez maszynę udającą człowieka. “

Prowadzenie AI w zakresie prawnych i innych krytycznych narzędzi do jego działań w zakresie działań. Badanie przedstawione na konferencji CHI 2025 ujawniło ciekawe odkrycie: osoby mogą wykazać preferencje dla porady prawnej generowanej przez AI, jeśli nie są one świadome jej pochodzenia, pomimo znanej niewiarygodności obecnych systemów AI.

Ta tendencja rodzi poważne obawy dotyczące potencjału do działania w sprawie wadliwych lub całkowicie niepoprawnych informacji. W odpowiedzi na te wyzwania społeczność badawcza AI aktywnie realizuje rozwiązania. Jednym z takich przykładów jest system bezpiecznego (wyszukiwarki ewaluator faktyczności), opracowany przez naukowców z Google Deepmind i Stanford University, który ma na celu zwiększenie prawdziwości reakcji AI Chatbot poprzez zapobieganie powiązaniom z powtórkami z informacjami z wyszukiwania Google.

antropic ma pewność, że jest to nowe procedury wewnętrzne, aby uniemożliwić podobne błędy cytowania w przyszłości. Ten incydent służy jednak jako silna ostrożność w całym branży: rygorystyczna i staranna weryfikacja ludzka pozostaje absolutnie krytyczna, ponieważ narzędzia sztucznej inteligencji stają się coraz bardziej zintegrowane z profesjonalnymi i krytycznymi przepływami pracy.

ścieżka naprzód będzie wymagała rozwoju bardziej niezawodnych systemów AI, w połączeniu z czystymi, poradnymi wytycznymi użytkowania i potencjalnie nowych ramy regulacyjnych, takich jak mandaty AI w AI w AI. Działanie, aby wspierać zaufanie publiczne i zapewnić odpowiedzialność w szybko rozwijającym się wieku generatywnym AI.

Categories: IT Info