AI公司人類人類已承認其律師Latham&Watkins隨後在持續的版權訴訟中製造了法律引用。在音樂出版商將錯誤的引用引起法院的注意之後,該公司為所稱的“一個令人尷尬和無意的錯誤”正式道歉。
這一事件引起了人們對持續的可靠性問題的嚴重關注的焦點。 Anthropic的法院申請詳細介紹了其Claude.ai模型如何提供了該公司所謂的“標題不准確和不准確的作者”的引用,這一錯誤令人遺憾地在手動審查過程中滑落了。 The admission adds to a growing list of AI-generated misinformation cases, prompting serious questions about the current readiness of such technology for critical applications and underscoring the indispensable nature of meticulous human oversight, particularly as investment in legal AI technologies continues to accelerate.
Ivana Dukanovic, an associate at Latham & Watkins, stated in a court declaration that after her legal team identified她通過Google搜索進行了一篇相關的學術文章,以提高潛在的專家證詞,任務Claude.ai,使用與正確文章的直接鏈接生成正確格式的法律引用。
,但是,AI返回了引用,其中包括正確的出版物,年份和鏈接,其中包括不正確的文章標題和錯誤的標題和錯誤的授權人。在律師事務所的手動引文檢查中,沒有抓住這個關鍵的錯誤,以及腳註中其他AI引入的措辭錯誤。 This all transpired within Anthropic’s legal defense against music publishers who initiated a lawsuit in October 2023, alleging that the Claude AI was unlawfully trained using copyrighted song lyrics.
Court Scrutiny And Industry Precedents
Before Anthropic’s formal admission, U.S. Magistrate Judge Susan van Keulen had ordered the company to respond to the allegations. Judge van Keulen described the potential use of a fabricated citation as “a very serious and grave issue,”as Music Business Worldwide報告。 During that hearing, Matt Oppenheim, attorney for the music publishers, revealed he had contacted one of the purported authors and the journal, confirming no such article existed, and suggested, “we do believe it is likely that Ms. Chen used Anthropic’s AI tool Claude to develop her argument and authority to support it.”
In defense, Anthropic’s attorney, Sy Damle of Latham & Watkins,爭辯說,這可能是“錯誤的引用”,而不是徹底的捏造。範·庫倫法官(Van Keulen)明確指出,“錯過的引文與AI產生的幻覺之間的差異世界”。音樂出版商甚至敦促法官批准Latham&Watkins律師進行監督,根據這種情況不是法律技術領域中的孤立事件。最近的一個來自The Verge 的報告 強調了另一個最近的實例,其中一家加利福尼亞州一家加利福尼亞州法官批評了“ Bogus Aii aigus ai-gernecred Research ati aigus aigus aigen-gernece a”。此外,a
既有警告。 In March 2025, Anthropic had secured a procedural victory when a judge denied an injunction request by the publishers.
AI Hallucination: A Persistent Challenge
The phenomenon of AI models generating confident-sounding but entirely false or misleading information, widely known as ‘hallucination’, continues to be a significant hurdle for the artificial intelligence industry.例如,梅塔(Meta)的AI在2024年7月因錯誤否認了一個主要報導的新聞事件而面臨公眾反彈。
梅塔(Meta)全球政策負責人喬爾·卡普蘭(Joel Kaplan)坦率地將幻覺稱為“行業範圍內的問題”。並承認所有生成的AI系統都可以並且確實會產生不准確的輸出。令人擔憂的是,甚至更新和據說更先進的模型無法免疫。據報導,OpenAI的O3和O4-Mini車型在某些基準測試上的幻覺率高於其前任。一位開放式發言人傳達了解決這些捏造的問題。
獨立研究,包括Cransporuce AI的工作,建議某些AI培訓技術,例如增強學習,可能會無意間在高級模型中與Neil neil Chowdhory contecruny condective in neil Chow crock intery condecrunch condective in Techscrunch condective in Techcrunch condective in tech intery contecrunch conders in neil Chow.其他技術公司還必須公開解決AI失誤。他承認他們的“前線AI支持機器人”負責此事件。在評論此類事件的更廣泛含義時,前Google首席決策科學家 cassie kozyrkov所說的那樣,如果是一定的,那是一定的,如果是一定的, AI不能對這些錯誤承擔責任(因此它落在了您身上),(3)用戶討厭被構成人類的機器欺騙。 Chi 2025會議上提出的一項研究表明,一個奇怪的發現:儘管已知當前AI系統的不可靠性,但人們可能會偏愛AI生成的法律建議。
這種趨勢對用戶對用戶採取有缺陷或完全錯誤的信息的潛力引起了重大關注。為了應對這些挑戰,AI研究界正在積極尋求解決方案。一個這樣的例子是由Google DeepMind和Stanford University的研究人員開發的安全(搜索提示的事實評估器)系統,旨在通過通過Google搜索中的信息來增強AI Chatbot響應的真實性來增強AI聊天機器人響應的真實性。
Anthropic確保了它正在實施新的內部程序,以至於實現了新的內部程序。然而,這一事件是一個有力的全行業謹慎的態度:隨著人工智能工具越來越多地整合到專業和關鍵的工作流程中,嚴格而勤奮的人類驗證仍然至關重要。
前進的道路無疑將需要開發更可靠的AI系統,並與明確的,強大的企業相結合的企業,例如,企業,例如,企業,例如,企業,例如,企業將其構成企業,例如,以實現的方式,以實現企業,以實現自己的企業,以實現自己的企業。培養公眾信任並確保在生成AI的迅速發展的年齡範圍內責任。