Eine neue Studie von Forschern der Cornell University zeigt, dass Elon Musks KI-gestützte Enzyklopädie Grokipedia stark von Wikipedia abgeleitet ist und unzuverlässige Quellen zitiert, darunter auch solche, die von seinem Konkurrenten auf die schwarze Liste gesetzt wurden.
Die wissenschaftliche Analyse ergab, dass Grokipedia-Artikel auf Verschwörungsseiten wie InfoWars verweisen, was die Behauptungen von xAI, einen „faktenbasierten“ Rivalen aufzubauen, direkt untergräbt.
Die Ergebnisse werfen kritische Fragen dazu auf Vertrauenswürdigkeit von Musks Informationsplattformen und den Leitplanken, die die KI-Entwicklung seines Unternehmens regeln.
xAI hat gerade Grok 4.1 auf den Markt gebracht, ein neues KI-Modell, das seiner Meinung nach deutlich verbesserte Zuverlässigkeit und sachliche Genauigkeit aufweist.
Cornell-Studie findet Grokipedia zitiert Auf der schwarzen Liste stehende und extremistische Quellen
Forscher der Cornell University haben eine vernichtende Analyse von Grokipedia veröffentlicht, die Ende Oktober als Musks Antwort auf das, was er die linksgerichtete Voreingenommenheit von Wikipedia nennt, veröffentlicht wurde. Die umfassende Studie bestätigt, dass ein Großteil des Inhalts der Website aus Wikipedia kopiert wurde, aber die bedeutendsten Änderungen bringen eine Reihe von Beschaffungsproblemen mit sich.
Das Papier macht eine entscheidende Unterscheidung zwischen Artikeln, die eine Creative Commons (CC)-Lizenz tragen, die ihre Wikipedia-Herkunft anerkennt, und solchen, die dies nicht tun. Innerhalb dieser letzteren Gruppe werden die redaktionellen Entscheidungen der Plattform deutlich.
Laut Harold Triedman und Alexios Mantzarlis von Cornell Tech „enthalten nicht CC-lizenzierte Artikel auf Grokipedia … 13-mal häufiger eine Quelle auf der ‚schwarzen Liste‘.“
Dies deutet auf eine bewusste Entscheidung hin, Quellen einzubeziehen, die die Wikipedia-Community als inakzeptabel erachtet. Die Studie ergab auch, dass die Umschreibungsbemühungen von Grokipedia nicht zufällig waren; Sie zielten unverhältnismäßig stark auf Wikipedia-Artikel mit der höchsten Qualität ab und konzentrierten sich auf sensible Themen wie Biografien, Politik und Geschichte.
#Was hat Elon geändert? Eine umfassende Analyse von Grokipedia
Dies deutet auf eine strategische Anstrengung hin, die Erzählung auf der Grundlage etablierter, streng geprüfter Informationen zu ändern.
Die Studie liefert konkrete, beunruhigende Beispiele für diese Praxis. In einem Eintrag zur Verschwörungstheorie „Clinton Body Count“ wurde beispielsweise InfoWars zitiert, eine Website, die für die Verbreitung von Desinformation bekannt ist. Die Forscher stellten außerdem fest: „Grokipedia enthält 42 Zitate für die Nazi-Website Stormfront und 34 für die Verschwörungs-Website InfoWars, im Vergleich zu keinem für beide auf der englischen Wikipedia.“
Als xAI um einen Kommentar zu den Ergebnissen der Studie gebeten wurde, gab er eine abweisende, aus zwei Wörtern bestehende Aussage ab: „Legacy Media Lies“, als gemeldet von The Guardian. Diese Antwort trägt wenig dazu bei, die dokumentierten Beweise für eine schlechte Quellenqualitätskontrolle zu berücksichtigen.
Eine Geschichte von zwei Groks: xAI wirbt inmitten eines Enzyklopädie-Skandals für die Zuverlässigkeit eines neuen Modells
xAI gestern kündigte kurz nach Veröffentlichung der Studie sein neues Flaggschiffmodell Grok 4.1 an. Das Unternehmen behauptet, dass die neue Version den Spitzenplatz in der LMArena Text Arena erreicht hat, einem wichtigen Benchmark, der blinde, paarweise Benutzerabstimmungen verwendet, um die Konversations-KI zu bewerten. x
Die Ankündigung von AI betonte einen erneuten Fokus auf Genauigkeit und Persönlichkeit und erklärte: „Unser 4.1-Modell ist außerordentlich fähig in kreativen, emotionalen und kollaborativen Interaktionen. Es ist empfänglicher für nuancierte Absichten, fesselnder beim Sprechen und kohärenter in der Persönlichkeit …“
Um diese Behauptungen zu untermauern, hob das Unternehmen ein deutliche Reduzierung der Halluzinationsrate, von über 12 % in der vorherigen Version auf nur 4,22 %.
Allerdings ist selbst dieser vermeintliche Sprung nach vorne mit schwerwiegenden Vorbehalten verbunden. Ein genauerer Blick in die Dokumentation des Modells offenbart einen besorgniserregenden Kompromiss. Laut seiner Modellkarte zeigt Grok 4.1 etwas häufiger Anzeichen von Unehrlichkeit und Manipulation als zuvor und beantwortet eher schädliche Anfragen.
Dies deutet darauf hin, dass sich zwar einige Metriken verbessert haben, das zugrunde liegende System jedoch möglicherweise neue, möglicherweise subtilere Zuverlässigkeitsprobleme entwickelt hat, die Benchmarks wie die LMArena Text Arena allein nicht erfassen.
Ein Muster von Voreingenommenheit und Kontroversen
Für Kritiker von Musks Herangehensweise an Informationen zufolge entsprechen diese Ereignisse einem bekannten Muster. Der Start von Grokipedia wurde vom ersten Tag an mit Vorwürfen sowohl des Plagiats als auch der ideologischen Voreingenommenheit geplagt.
Der Eintrag zum Geschlecht definierte es beispielsweise als „binäre Klassifikation … basierend auf dem biologischen Geschlecht“, eine Abweichung vom differenzierteren wissenschaftlichen Konsens. Der Artikel zum Klimawandel verstärkte skeptische Standpunkte. Dies ist nicht nur eine algorithmische Eigenart; Grok durchsucht nachweislich aktiv Musks eigene Beiträge auf die KI, die es antreibt.
Die umfassendere Bedrohung für von Menschen kuratiertes Wissen
Die Kontroverse verdeutlicht auch eine wachsende existenzielle Bedrohung für von Menschen kuratierte Wissensdatenbanken. Die Wikimedia Foundation, die Wikipedia betreibt, hat bereits vor einem Rückgang des Datenverkehrs gewarnt, da KI-Tools ihre Inhalte ohne Namensnennung durchsuchen und zusammenfassen.
Dieser Trend bedroht das von Freiwilligen betriebene Ökosystem, das die Enzyklopädie trägt. Lauren Dickinson, eine Sprecherin der Stiftung, bemerkte zuvor: „Sogar Grokipedia braucht Wikipedia, um zu existieren.“
Wikipedias Community wehrt sich bereits, indem sie eine Richtlinie zur „schnellen Löschung“ eingeführt hat, um „KI-Schrott“ von ihrer eigenen Plattform zu entfernen. Doch der Start eines gut finanzierten, KI-gesteuerten Konkurrenten, der aktiv Voreingenommenheit und Fehlinformationen verbreitet, stellt eine neue Art von Herausforderung dar.
Wikipedia-Mitbegründer Jimmy Wales äußerte sich ebenfalls skeptisch und erklärte: „KI-Sprachmodelle sind nicht gut genug, um Enzyklopädieartikel zu schreiben. Es wird viele Fehler geben.“ Angesichts der zunehmenden Verbreitung KI-generierter Content-Plattformen dient der Gropedia-Skandal als kritische Fallstudie zu den Risiken von Größe und Ideologie haben Vorrang vor Genauigkeit und ethischer Beschaffung.