Die AI-KI-Firma Anthropic hat zugegeben, dass ihre Claude-KI in einer laufenden Urheberrechtsklage ein rechtliches Zitat erfunden hat, das von ihren Anwälten Latham & Watkins verwendet wurde. Das Unternehmen entschuldigte sich offiziell für das, was es als”einen peinlichen und unbeabsichtigten Fehler”bezeichnete, nachdem Musikverleger das fehlerhafte Zitat auf die Aufmerksamkeit des Gerichts gebracht hatten. Das Gericht von Anthropic wurde beschrieben, wie sein Modell von Claude.ai ein Zitat mit dem lieferte, was das Unternehmen als „ungenaue Titel und ungenaue Autoren“ bezeichnete, ein Fehler, der bedauerlicherweise durch manuelle Überprüfungsprozesse verlangte. Die Zulassung trägt zu einer wachsenden Liste von Fehlinformationsfällen mit A-generierten Fehlinformationen bei, was zu ernsthaften Fragen zur aktuellen Bereitschaft solcher Technologie für kritische Anwendungen und die Unterströme der unverzichtbaren Natur der sorgfältigen menschlichen Überwachung, insbesondere da die Investition in Rechts-AI-Technologien weiterhin beschleunigt wird. Artikel durch eine Google-Suche, um das Expertenaussagen möglicherweise zu stärken, beauftragte sie Claude.ai mit einem ordnungsgemäß formatierten Rechtszitat unter Verwendung des direkten Links zum richtigen Artikel. Dieser kritische Fehler wurde zusammen mit anderen KI-betriebenen Formulierungsfehlern bei Fußnoten während der manuellen Zitierprüfung der Anwaltskanzlei nicht erfasst. Dies alles in der Rechtsverteidigung von Anthropic gegen Musikverleger, die im Oktober 2023 eine Klage einleiteten, behauptete, dass die Claude-KI mit urheberrechtlich geschützten Song-Texten rechtswidrig geschult wurde. Vorwürfe. Judge van Keulen described the potential use of a fabricated citation as “a very serious and grave issue,”as Music Business Worldwide Berichte . Während dieser Anhörung enthüllte Matt Oppenheim, Anwalt der Musikverleger, er hatte einen der angeblichen Autoren und das Journal kontaktiert und bestätigte, dass kein solcher Artikel existierte: „Wir glauben, dass es wahrscheinlich ist, dass Frau Chen Anthropics AI-Tool-Classide, um ihre Argumentation und die Behörde zu unterstützen. behauptete, es sei wahrscheinlich eher ein”Missz und habe”als eine völlige Herstellung. Richter Van Keulen bemerkte sparsam in der”Welt des Unterschieds zwischen einem verpassten Zitat und einer von AI erzeugten Halluzination”. Die Musikverlage haben den Richter so weit gegangen, die Anwälte von Latham & Watkins nach der Aufsicht nach law360 . Ein aktuelles Bericht aus dem Verge Highlight hat ein weiteres Instanz, an dem eine kalifornische Richterin kritisierte, an Anwaltskanzleien”Fogus ai-averated”kritisiert. Darüber hinaus ist ein Sorbara Law-Artikel diskutiert Ein 2025-Ontario-Fall. Dokumente kompetent:”Als Warnung gegen Fehler, die sich aus der KI-Verwendung ergibt. Im März 2025 hatte Anthropic einen verfahrenstechnischen Sieg gesichert, als ein Richter eine einstweilige Anfrage der Verlage bestritt. künstliche Intelligenzbranche. Die KI von Meta zum Beispiel stand im Juli 2024 mit öffentlichen Rückschlägen aus, weil er ein großes, weit verbreitetes Nachrichtenereignis fälschlicherweise verweigert hatte. und erkannte an, dass alle generativen KI-Systeme ungenaue Ausgänge erzeugen und tun können. Besorgniserregend sind noch neuere und angeblich fortgeschrittenere Modelle nicht immun; OpenAIs O3-und O4-Mini-Modelle, die im April veröffentlicht wurden, weisen Berichten zufolge bei einigen Benchmarks höhere Halluzinationsraten auf als ihre Vorgänger. Ein OpenAI-Sprecher, der sich mit diesen Erstellungen befasst, bleibt ein aktives und laufendes Forschungsbereich für das Unternehmen. Andere Technologieunternehmen mussten auch die AI-Fehler öffentlich ansprechen. Er gab zu, dass ihr „Front-Line AI Support Bot“ für den Vorfall verantwortlich war. Der ehemalige Google Chief Decision Scientist cassie kozyrkove ,”Das”Durcheinander konnte man es hat”-Meas, wenn es darum ging, dass es so ist, wie es sich um das Jahr bricht, wie man es sich machte, was das (), was das (), was das () und das, was man meiden konnte. KI kann die Verantwortung für diese Fehler nicht übernehmen (also fällt es auf Sie), und (3) Benutzer hassen es, von einer Maschine ausgestattet zu werden, die sich als Mensch ausgibt. Eine Studie, die auf der CHI 2025-Konferenz vorgestellt wurde, ergab eine merkwürdige Feststellung: Einzelpersonen könnten eine Präferenz für die Rechtsberatung von AI-generiertem Recht zeigen, wenn sie sich seiner Herkunft nicht bewusst sind, trotz der bekannten Unzuverlässigkeit aktueller KI-Systeme. Als Reaktion auf diese Herausforderungen verfolgt die AI-Forschungsgemeinschaft aktiv Lösungen. Ein solches Beispiel ist das sichere System (Search-Augmented Factuality Evaluator), das von Forschern der Google DeepMind und der Stanford University entwickelt wurde und die die Wahrhaftigkeit von AI-Chatbot-Antworten durch Cross-Referenzing erzeugte, generierte Tatsachen mit Informationen mit Informationen aus Google-Suche. Dieser Vorfall dient jedoch als starke, branchenweite Vorsicht: Strenge und fleißige menschliche Verifizierung bleibt absolut kritisch, da künstliche Intelligenz-Tools zunehmend in professionelle und kritische Workflows integriert werden. Handeln, um das öffentliche Vertrauen zu fördern und die Rechenschaftspflicht im sich schnell entwickelnden Alter der generativen Ai zu gewährleisten.

Categories: IT Info