ウィキメディア財団は、ウィキペディアへの人間の訪問者の大幅な減少に警鐘を鳴らしました。 10 月 17 日の声明で、非営利団体は、2024 年の同時期と比較して過去数か月間でページビューが 8% 減少したことを明らかにしました。

この組織は、 急成長する生成 AI 産業。検索エンジンと AI チャットボットはますますウィキペディアの膨大な知識のリポジトリを収集して要約し、ユーザーに直接の回答を提供します。この利便性には代償が伴い、ソースからトラフィックが吸い取られます。

この傾向は、クラウドソーシング百科事典の基盤そのものを脅かしています。同財団は、この減少は単なる虚栄心の指標ではないと警告している。これは、プラットフォームの長期的な持続可能性にとって重大なリスクを意味します。

「ウィキペディアへのアクセスが減れば、ボランティアの数も減り、コンテンツを増やし充実させることができ、この取り組みを支援する個人の寄付者も少なくなる可能性があります」とマーシャル氏は述べています。 ミラー、ウィキメディア製品シニアディレクター。

共生関係が寄生関係に変わる

この厄介な傾向の発見は、統計的異常から始まりました。ウィキメディア財団によると、そのアナリストは、2025 年 5 月頃から異常に大量の明らかに人間によるトラフィックが発生していることに初めて気づき、その多くはブラジルからのものでした。

これは このスパイクは、サイトのトラフィック データとボット検出システムに関する詳細な調査を引き起こしました。これらのシステムは、ますます高度化する自動エージェントに対抗するために常に更新されています。

この調査により、ウィキメディアが「人間のように見えるように設計されたボットの新しい行動パターン」と表現されているものが明らかになりました。これらのステルスボットをフィルタリングするためにシステムを再設計し、3 月から 8 月にかけてトラフィック データを再分類した結果、実際の人間のページビューが大幅かつ継続的に減少しているという本当の状況が明らかになりました。

最初のトラフィックの急増は成長の兆候ではなく、より深刻な問題を隠している仮面でした。

この動きは、デジタル エコシステム内で拡大しつつある潜在的に寄生的な関係を浮き彫りにしています。ほぼすべての主要な大規模言語モデル (LLM) は、トレーニングのためにウィキペディアの人間が厳選した膨大なデータセットに大きく依存していますが、それらを導入するプラットフォームはその価値を還元していません。

代わりに、検索エンジンと AI チャットボットが要約された回答をユーザーに直接提供するため、クリックしてソース記事にアクセスする必要が実質的になくなります。

これは単なる逸話ではありません。それは目に見える業界全体の変化です。外部機関の調査では、AI がウィキペディアの読者を直接共食いする仕組みが確認されており、他の多くのオンライン出版社も同様のトラフィック減少を報告しています。

コロンビア ビジネス スクールの 2025 年の研究概要では、明示的に は、ChatGPT が「特定のトピックに関して Wikipedia の注目を共食いしているようだ」と報告しました。この調査では、重複する情報クエリを調査し、ユーザーが事実に基づく回答を求めて ChatGPT に頼ると、それらのトピックに関する Wikipedia ページ ビューが減少したことがわかりました。

中心的な問題は、引用とソース素材との直接的な関わりというオープン ウェブの基本原則が侵食されていることです。

広告収入ではなく寄付者によって支えられている Wikipedia にとって、脅威は存続に関わるものです。問題は、人間によるフィードバック ループの劣化です。訪問者が減るということは、新しいボランティア編集者、ファクトチェッカー、コミュニティモデレーターを募集するための人材が少なくなるということを意味します。

これは悪循環を生む危険性があり、人間による監視が少なくなると品質が低下し、ウィキペディアをインターネットの基盤たらしめている国民の信頼がさらに損なわれる可能性があります。

ウィキペディアのマルチフロント戦略: キュレーション、認可されたデータ、 進化

ウィキペディア内部では、すでに別の戦線、つまり「AI のスロップ」で戦争が行われています。 LLM によって生成された低品質でレビューされていないコンテンツの流入を、あるボランティアは「存続の脅威」と表現しました。この大洪水により、サイトの人によるモデレーション プロセスが圧倒される恐れがあります。

直接的な対応として、ボランティア コミュニティは 2025 年 8 月に「迅速な削除」ポリシーを採用しました。G15 として知られるこのポリシーにより、管理者は捏造された引用や会話のアーティファクトなど、AI 生成を明らかに示す記事を迅速に削除できます。

財団の戦略は純粋に防御的なものではありません。同社は独自の AI 開発に人間中心のアプローチを採用しており、編集者の代わりとなるのではなく、編集者を支援するツールに重点を置いています。機械学習担当ディレクターの Chris Albon 氏は次のように述べています。「私たちは、AI を使った今後の取り組みが、何をするかだけでなく、どのように行うかによって成功すると信じています。」

Wikimedia Enterprise は、無秩序なデータ スクレイピングに代わる公認の代替手段も提供しています。 Google の Kaggle などのプラットフォームで構造化データセットをリリースすることで、開発者にコンテンツにアクセスするためのクリーンで効率的な方法を提供し、サーバーへの負担を軽減できる可能性があります。

関連性を維持するために、財団は視聴者にリーチするための新しい方法も模索しています。その取り組みには、読者の増加、モバイル編集に重点を置いた専任チーム、そして、TikTok や YouTube などのプラットフォームで若いユーザーを引き込むための「Future Audiences」プロジェクトが含まれます。

外部からの圧力が高まる中、 アイデンティティの危機

ウィキペディアが多方面からの批判を乗り越えるにつれて、この実存的課題が到来します。テクノロジー界の大御所イーロン・マスク氏は、2025年9月に「グロキペディア」と呼ばれるライバル百科事典の計画を発表した。彼は、プラットフォーム上で認識されている偏見に対抗する方法として、AI 主導の代替案を売り込みました。

マスク氏は、Grok が「ページを書き換えて修正し、虚偽を削除し、半真実を修正し、欠落しているコンテキストを追加する」ことを構想しています。これは、ウィキペディアの人間主導の編集モデルに対する直接的な挑戦です。

私たちは Grokipedia を構築しています @xAI

Wikipedia よりも大幅に改善されます。

率直に言って、これは宇宙を理解するという xAI の目標に向けて必要なステップです。 https://t.co/xvSeWkpALy

— Elon Musk (@elonmusk) 2025 年 9 月 30 日

しかし、批評家たちは、AI が生成したコンテンツには独自の重大なバイアスが含まれる可能性があることを指摘しています。 Grok 自体も精度に問題がありました。

このプラットフォームは、非営利の立場と外国の影響力の疑い、特に政治的にデリケートなトピックの編集に関して、米国当局からの厳しい監視にもさらされています。こうした圧力により、二極化した世界において中立的で信頼できる情報源を維持するという課題がさらに複雑化しています。

最終的に、ウィキメディアはより健全なインターネット エコシステムを訴えています。ミラー氏は、自社のデータを使用するプラットフォームに対し、明確な帰属を提供し、ユーザーがソースにアクセスするよう奨励するよう求めた。一般ユーザーに対するアドバイスはシンプルでした。「オンラインで情報を検索するときは、引用を探し、クリックして元の情報源にアクセスしてください。」

Categories: IT Info