ai firm Anthropic ay inamin ang Claude AI na gawa sa isang ligal na pagsipi na kasunod na ginagamit ng mga abogado nito, Latham & Watkins, sa isang patuloy na demanda sa copyright. Pormal na humingi ng tawad ang kumpanya sa kung ano ang inilarawan nito bilang”isang nakakahiya at hindi sinasadyang pagkakamali,”matapos na dinala ng mga publisher ng musika ang maling pagsipi sa atensyon ng korte. Ang korte ng korte ng Anthropic ay detalyado kung paano ang modelo ng claude.ai na ito ay nagbigay ng isang pagsipi sa tinatawag na kumpanya na”isang hindi tumpak na pamagat at hindi tumpak na mga may-akda,”isang error na ikinalulungkot na dumulas sa mga manu-manong proseso ng pagsusuri. Ang pagpasok ay nagdaragdag sa isang lumalagong listahan ng Ang artikulong pang-akademiko sa pamamagitan ng isang paghahanap sa Google upang potensyal na palakasin ang patotoo ng dalubhasa, inatasan niya ang Claude.ai sa pagbuo ng isang maayos na na-format na ligal na pagsipi gamit ang direktang link sa tamang artikulo. Ang kritikal na pagkakamaling ito, kasama ang iba pang mga error na ipinakilala sa AI-ipinakilala sa mga talababa sa talababa, ay hindi nahuli sa manu-manong tseke ng pagsipi ng batas. Ito ang lahat ay lumampas sa loob ng ligal na pagtatanggol ng Anthropic laban sa mga publisher ng musika na nagsimula ng demanda noong Oktubre 2023, na sinasabing ang Claude AI ay labag sa batas na sinanay gamit ang mga copyrighted song lyrics. Mga paratang. Inilarawan ni Judge van Keulen ang potensyal na paggamit ng isang gawa-gawa na pagbanggit bilang”isang napaka-seryoso at malubhang isyu,”bilang ulat mula sa verge Nag-highlight ng isa pang kamakailan-lamang na halimbawa kung saan ang isang hukom ng California ay pinuna ang mga kumpanya ng batas para sa pagsusumite ng”bogus ai-generated research.”Bukod dito, ang isang sorbara law artikulo Kumpitensya,”bilang isang babala laban sa mga pagkakamali na nagmula sa paggamit ng AI. Noong Marso 2025, na-secure ni Anthropic ang isang tagumpay sa pamamaraan nang tanggihan ng isang hukom ang isang kahilingan ng injunction ng mga publisher. industriya ng katalinuhan. Halimbawa, ang Meta’s AI, ay nahaharap sa pampublikong backlash noong Hulyo 2024 dahil sa hindi wastong pagtanggi sa isang pangunahing, malawak na naiulat na kaganapan sa balita. at kinilala na ang lahat ng mga generative AI system ay maaaring, at gawin, makagawa ng hindi tumpak na mga output. Nakababahala, kahit na mas bago at parang mas advanced na mga modelo ay hindi immune; Ang OpenAi’s O3 at O4-Mini models, na inilabas noong Abril, ay naiulat na nagpapakita ng mas mataas na rate ng guni-guni sa ilang mga benchmark kaysa sa kanilang mga nauna. Ang isang tagapagsalita ng OpenAI na naghahatid ng mga katha na ito ay nananatiling isang aktibo at patuloy na lugar ng pananaliksik para sa kumpanya. Ang iba pang mga kumpanya ng teknolohiya ay kinailangan ding talakayin sa publiko ang mga blunders ng AI. Inamin niya ang kanilang”front-line AI Support Bot”ay may pananagutan sa insidente. Ang pagkomento sa mas malawak na mga implikasyon ng naturang mga insidente, dating Google Chief Decision Scientist Inilahad ni Cassie Kozyrkov Hindi maaaring responsibilidad ng AI ang mga pagkakamaling iyon (kaya bumagsak ito sa iyo), at (3) kinamumuhian ng mga gumagamit na na-trick sa pamamagitan ng isang makina na posing bilang isang tao.”Ang isang pag-aaral na ipinakita sa kumperensya ng CHI 2025 ay nagsiwalat ng isang mausisa na paghahanap: ang mga indibidwal ay maaaring magpakita ng isang kagustuhan para sa ai-nabuo na ligal na payo kung hindi nila alam ang pinagmulan nito, sa kabila ng kilalang hindi mapagkakatiwalaan ng kasalukuyang mga sistema ng AI. Bilang tugon sa mga hamong ito, ang pamayanan ng pananaliksik ng AI ay aktibong naghahabol ng mga solusyon. Ang isa sa mga halimbawa ay ang ligtas (Search-Augmented Factuality Evaluator) na sistema, na binuo ng mga mananaliksik mula sa Google DeepMind at Stanford University, na idinisenyo upang mapahusay ang katotohanan ng mga sagot sa AI Chatbot sa pamamagitan ng cross-referencing na nabuo na mga katotohanan na may impormasyon mula sa mga bagong pamamaraan. Ang pangyayaring ito, gayunpaman, ay nagsisilbing isang makapangyarihan, pag-iingat sa buong industriya: ang mahigpit at masigasig na pag-verify ng tao ay nananatiling ganap na kritikal dahil ang mga tool na artipisyal na katalinuhan ay nagiging lalong isinama sa mga propesyonal at kritikal na mga daloy ng trabaho. EU AI Act, upang mapangalagaan ang tiwala ng publiko at matiyak ang pananagutan sa mabilis na umuusbong na edad ng generative ai.