Die Wikimedia Foundation hat Alarm geschlagen, weil die Zahl der menschlichen Besucher auf Wikipedia deutlich zurückgegangen ist. In einer Erklärung vom 17. Oktober gab die gemeinnützige Organisation einen 8 %igen Rückgang der Seitenaufrufe in den letzten Monaten im Vergleich zum gleichen Zeitraum im Jahr 2024 bekannt.

Die Organisation zeigt mit dem Finger direkt auf den Boom generative KI-Branche. Suchmaschinen und KI-Chatbots durchsuchen und fassen zunehmend den umfangreichen Wissensschatz von Wikipedia zusammen und liefern den Benutzern direkte Antworten. Diese Bequemlichkeit hat ihren Preis, denn sie leitet den Datenverkehr von der Quelle ab.

Dieser Trend bedroht das Fundament der Crowdsourcing-Enzyklopädie. Die Stiftung warnt davor, dass dieser Rückgang nicht nur ein Eitelkeitsmaßstab sei; es stellt ein kritisches Risiko für die langfristige Nachhaltigkeit der Plattform dar.

„Mit weniger Besuchen bei Wikipedia können weniger Freiwillige den Inhalt erweitern und bereichern, und möglicherweise werden weniger Einzelspender diese Arbeit unterstützen“, sagte Marshall Miller, Senior Director of Product bei Wikimedia.

Eine symbiotische Beziehung wird parasitär

Die Entdeckung dieses besorgniserregenden Trends begann mit einer statistischen Anomalie. Nach Angaben der Wikimedia Foundation bemerkten ihre Analysten erstmals etwa ab Mai 2025 ungewöhnlich hohe Mengen an scheinbar menschlichem Datenverkehr, wobei ein Großteil davon aus Brasilien stammte.

Dieser Anstieg löste eine eingehendere Untersuchung der Verkehrsdaten und Bot-Erkennungssysteme der Website aus, die ständig aktualisiert werden, um immer ausgefeilteren automatisierten Agenten entgegenzuwirken.

Diese Untersuchung deckte auf, was Wikimedia als „neues Bot-Verhaltensmuster, das menschlich erscheinen soll“ bezeichnete. Nach der Umgestaltung ihrer Systeme zum Herausfiltern dieser heimlichen Bots und der Neuklassifizierung der Verkehrsdaten von März bis August zeigte sich das wahre Bild: ein erheblicher und anhaltender Rückgang der tatsächlichen menschlichen Seitenaufrufe.

Der anfängliche Verkehrsanstieg war kein Zeichen von Wachstum, sondern eine Maske, die ein ernsteres Problem verbarg.

Diese Dynamik verdeutlicht eine wachsende und potenziell parasitäre Beziehung innerhalb des digitalen Ökosystems. Während fast alle großen großen Sprachmodelle (LLMs) für ihr Training stark auf die riesigen, von Menschen kuratierten Datensätze von Wikipedia angewiesen sind, erwidern die Plattformen, die sie einsetzen, diesen Wert nicht.

Stattdessen stellen Suchmaschinen und KI-Chatbots den Benutzern direkt zusammengefasste Antworten zur Verfügung, wodurch das Durchklicken zum Quellartikel effektiv entfällt.

Das ist nicht nur eine Anekdote; Es handelt sich um einen messbaren, branchenweiten Wandel. Untersuchungen externer Stellen haben bestätigt, wie KI die Leserschaft von Wikipedia direkt ausschlachten kann, und viele andere Online-Verlage berichten von ähnlichen Verkehrsrückgängen.

Ein Forschungsbericht der Columbia Business School aus dem Jahr 2025 explizit berichtete, dass ChatGPT „die Aufmerksamkeit von Wikipedia für bestimmte Themen zu kannibalisieren scheint“. Die Studie untersuchte sich überschneidende Informationsanfragen und stellte fest, dass die Wikipedia-Seitenaufrufe zu diesen Themen zurückgingen, wenn Benutzer sich an ChatGPT wandten, um sachliche Antworten zu erhalten.

Das Kernproblem ist die Erosion des Grundprinzips des offenen Webs des Zitierens und der direkten Auseinandersetzung mit Quellmaterial.

Für Wikipedia, das eher von Spendern als von Werbeeinnahmen unterstützt wird, ist die Bedrohung existenziell. Das Problem ist die Verschlechterung der menschlichen Rückkopplungsschleife. Weniger Besucher bedeuten einen kleineren Pool, aus dem neue ehrenamtliche Redakteure, Faktenprüfer und Community-Moderatoren rekrutiert werden können.

Dadurch besteht die Gefahr, dass ein Teufelskreis entsteht, in dem weniger menschliche Aufsicht zu einem Qualitätsverlust führen und das öffentliche Vertrauen, das Wikipedia zu einem Eckpfeiler des Internets macht, weiter untergräbt.

Wikipedias Multifront-Strategie: Kuration, sanktionierte Daten usw Evolution

Intern führt Wikipedia bereits einen Krieg an einer anderen Front: „KI-Schrott.“ Der Zustrom minderwertiger, ungeprüfter Inhalte, die von LLMs generiert wurden, wurde von einem Freiwilligen als „existentielle Bedrohung“ beschrieben. Diese Flut droht die menschlichen Moderationsprozesse der Website zu überfordern.

Als direkte Reaktion hat die Freiwilligengemeinschaft im August 2025 eine Richtlinie zur „schnellen Löschung“ verabschiedet. G15 genannt, ermöglicht sie Administratoren, Artikel mit offensichtlichen Hinweisen auf die KI-Generierung, wie erfundene Zitate oder Gesprächsartefakte, schnell zu entfernen.

Die Strategie der Stiftung ist nicht rein defensiv. Bei der eigenen KI-Entwicklung verfolgt das Unternehmen einen menschenzentrierten Ansatz und konzentriert sich auf Tools, die Redakteure unterstützen, anstatt sie zu ersetzen. Chris Albon, Direktor für maschinelles Lernen, erklärte: „Wir glauben, dass unsere zukünftige Arbeit mit KI nicht nur aufgrund dessen, was wir tun, sondern auch aufgrund der Art und Weise, wie wir es tun, erfolgreich sein wird.“

Wikimedia Enterprise bietet auch eine sanktionierte Alternative zum chaotischen Data Scraping. Durch die Veröffentlichung strukturierter Datensätze auf Plattformen wie Googles Kaggle bietet sie Entwicklern eine saubere und effiziente Möglichkeit, auf Inhalte zuzugreifen, was möglicherweise die Belastung ihrer Server verringert.

Um relevant zu bleiben, erkundet die Stiftung auch neue Wege, um Zielgruppen zu erreichen. Zu den Initiativen gehören engagierte Teams, die sich auf Leserwachstum konzentrieren, ein Schwerpunkt auf mobiler Bearbeitung, und das „Future Audiences“-Projekt, um jüngere Nutzer auf Plattformen wie TikTok und YouTube einzubinden.

Der externe Druck nimmt zu Inmitten einer Identitätskrise

Diese existenzielle Herausforderung entsteht, da Wikipedia Kritik aus mehreren Richtungen übersteht. Der Tech-Mogul Elon Musk kündigte im September 2025 Pläne für eine konkurrierende Enzyklopädie namens „Grokipedia“ an. Er schlug die KI-gesteuerte Alternative als eine Möglichkeit vor, wahrgenommenen Vorurteilen auf der Plattform entgegenzuwirken.

Musk stellt sich vor, dass Grok „die Seite neu schreiben wird, um sie zu korrigieren, die Unwahrheiten zu entfernen, die Halbwahrheiten zu korrigieren und den fehlenden Kontext hinzuzufügen“, eine direkte Herausforderung für das von Menschen geführte Redaktionsmodell von Wikipedia.

Wir bauen Grokipedia @xAI.

Wird eine enorme Verbesserung gegenüber Wikipedia darstellen.

Ehrlich gesagt ist es ein notwendiger Schritt in Richtung des xAI-Ziels, das Universum zu verstehen. https://t.co/xvSeWkpALy

– Elon Musk (@elonmusk) 30. September 2025

Dennoch weisen Kritiker darauf hin, dass KI-generierte Inhalte ihre eigenen erheblichen Vorurteile tragen können, und das auch Grok selbst hatte Probleme mit der Genauigkeit.

Die Plattform wurde auch von US-Behörden wegen ihres gemeinnützigen Status und angeblichen Einflusses aus dem Ausland geprüft, insbesondere im Hinblick auf Änderungen zu politisch sensiblen Themen. Dieser Druck verschärft die Herausforderung, in einer polarisierten Welt eine neutrale, zuverlässige Informationsquelle aufrechtzuerhalten.

Letztendlich plädiert Wikimedia für ein gesünderes Internet-Ökosystem. Miller forderte Plattformen, die seine Daten verwenden, dazu auf, eine klare Zuordnung bereitzustellen und Benutzer zu ermutigen, die Quelle zu besuchen. Für alltägliche Benutzer war der Rat einfach: „Wenn Sie online nach Informationen suchen, achten Sie auf Zitate und klicken Sie sich durch das Originalquellenmaterial.“

Categories: IT Info