Fundacja Wikimedia wywołała alarm w związku ze znacznym spadkiem liczby osób odwiedzających Wikipedię. W oświadczeniu z 17 października organizacja non-profit ujawniła 8% spadek liczby odsłon w ciągu ostatnich kilku miesięcy w porównaniu z tym samym okresem w 2024 r.

Organizacja wskazuje palcem bezpośrednio na dynamicznie rozwijającą się branżę przemysł generatywnej sztucznej inteligencji. Wyszukiwarki i chatboty AI coraz częściej przeszukują i podsumowują ogromne repozytorium wiedzy Wikipedii, dostarczając użytkownikom bezpośrednich odpowiedzi. Ta wygoda ma swoją cenę, ponieważ odprowadza ruch ze źródła.

Trend ten zagraża samym podstawom encyklopedii opartej na crowdsourcingu. Fundacja ostrzega, że ​​ten spadek to nie tylko próżność; stanowi to krytyczne ryzyko dla długoterminowego zrównoważonego rozwoju platformy.

„Przy mniejszej liczbie wizyt w Wikipedii mniej wolontariuszy będzie mogło rozwijać i wzbogacać treść, a mniej indywidualnych darczyńców będzie mogło wesprzeć tę pracę” – powiedział Marshall Miller, starszy dyrektor ds. produktu Wikimedia.

Symbiotyczna relacja staje się pasożytnicza

Odkrycie tego niepokojącego trendu rozpoczęło się od anomalii statystycznej. Według Fundacji Wikimedia jej analitycy po raz pierwszy zauważyli niezwykle duże ilości najwyraźniej ruchu ludzkiego, który rozpoczął się około maja 2025 r., a jego większość pochodziła z Brazylii.

Ten gwałtowny wzrost spowodowało głębsze dochodzenie w sprawie danych o ruchu w witrynie i systemów wykrywania botów, które są stale aktualizowane, aby przeciwdziałać coraz bardziej wyrafinowanym automatycznym agentom.

Dochodzenie to ujawniło to, co Wikimedia określiła jako „nowy wzorzec zachowania botów, zaprojektowany tak, aby wyglądał jak ludzki”. Po przeprojektowaniu systemów w celu odfiltrowania tych ukrytych botów i przeklasyfikowaniu danych o ruchu od marca do sierpnia wyłonił się prawdziwy obraz: znaczny i trwały spadek rzeczywistych odsłon stron przez ludzi.

Początkowy wzrost ruchu nie był oznaką wzrostu, ale maską ukrywającą poważniejszy problem.

Ta dynamika uwypukla rosnącą i potencjalnie pasożytniczą relację w ekosystemie cyfrowym. Chociaż prawie wszystkie główne modele języków dużych (LLM) do celów szkoleniowych w dużym stopniu opierają się na ogromnych, wybranych przez ludzi zbiorach danych Wikipedii, wdrażające je platformy nie odwzajemniają tej wartości.

Zamiast tego wyszukiwarki i chatboty AI dostarczają podsumowane odpowiedzi bezpośrednio użytkownikom, skutecznie eliminując potrzebę klikania do artykułu źródłowego.

To nie jest tylko anegdota; jest to wymierna zmiana obejmująca całą branżę. Badania przeprowadzone przez instytucje zewnętrzne potwierdziły, że sztuczna inteligencja bezpośrednio kanibalizuje czytelnictwo Wikipedii, a wielu innych wydawców internetowych zgłasza podobny spadek ruchu.

W skrócie badań Columbia Business School z 2025 r. wyraźnie zgłosił, że ChatGPT „wydaje się kanibalizować uwagę Wikipedii na pewne tematy”. W badaniu zbadano nakładające się zapytania informacyjne i stwierdzono, że gdy użytkownicy zwracali się do ChatGPT w celu uzyskania rzeczowych odpowiedzi, liczba wyświetleń stron Wikipedii na te tematy spadała.

Podstawowym problemem jest erozja podstawowej zasady otwartej sieci, czyli cytowania i bezpośredniego kontaktu z materiałami źródłowymi.

W przypadku Wikipedii, która jest wspierana przez darczyńców, a nie przychody z reklam, zagrożenie ma charakter egzystencjalny. Problemem jest degradacja pętli ludzkiego sprzężenia zwrotnego. Mniej odwiedzających oznacza mniejszą pulę, z której można rekrutować nowych redaktorów-wolontariuszy, weryfikatorów faktów i moderatorów społeczności.

Ryzy to utworzeniem błędnego koła, w którym mniejszy nadzór ze strony człowieka może prowadzić do spadku jakości i dalszego osłabienia zaufania publicznego, które czyni Wikipedię kamieniem węgielnym Internetu.

Strategia wielofrontowa Wikipedii: kontrola, dane objęte sankcjami i Ewolucja

Wewnętrznie Wikipedia już toczy wojnę na innym froncie: „slap AI”. Napływ niskiej jakości, niesprawdzonych treści generowanych przez LLM został opisany przez jednego z wolontariuszy jako „zagrożenie egzystencjalne”. Zalew ten grozi przeciążeniem procesów moderacji witryny przez człowieka.

W odpowiedzi społeczność wolontariuszy przyjęła w sierpniu 2025 r. politykę „szybkiego usuwania”. Funkcja ta, znana jako G15, umożliwia administratorom szybkie usuwanie artykułów zawierających oczywiste informacje o generowaniu sztucznej inteligencji, takich jak sfabrykowane cytaty lub artefakty konwersacji.

Strategia fundacji nie ma wyłącznie charakteru defensywnego. Przyjęła podejście skoncentrowane na człowieku do własnego rozwoju sztucznej inteligencji, koncentrując się na narzędziach, które pomagają redaktorom, a nie je zastępują. Jak stwierdził dyrektor ds. uczenia maszynowego, Chris Albon, „wierzymy, że nasza przyszła praca ze sztuczną inteligencją zakończy się sukcesem nie tylko ze względu na to, co robimy, ale także jak to robimy”.

Wikimedia Enterprise zapewnia również usankcjonowaną alternatywę dla chaotycznego skrobania danych. Udostępniając uporządkowane zbiory danych na platformach takich jak Kaggle firmy Google, oferuje programistom przejrzysty i skuteczny sposób dostępu do treści, potencjalnie odciążając serwery.

Aby zachować aktualność, fundacja bada również nowe sposoby docierania do odbiorców. Inicjatywy obejmują dedykowane zespoły skupione na rozwoju czytelników, skupiające się na edycji mobilnej, oraz projekt „Future Audiences” mający na celu zaangażowanie młodszych użytkowników na platformach takich jak TikTok i YouTube.

Rosną presje zewnętrzne W obliczu kryzysu tożsamości

To egzystencjalne wyzwanie pojawia się, gdy Wikipedia opiera się krytyce z wielu stron. Potentat technologiczny Elon Musk ogłosił we wrześniu 2025 r. plany dotyczące konkurencyjnej encyklopedii o nazwie „Grokipedia”. Zaproponował alternatywę opartą na sztucznej inteligencji jako sposób na przeciwdziałanie dostrzegalnym stronniczości na platformie.

Musk przewiduje, że Grok „przepisze stronę, aby poprawić, usunąć kłamstwa, poprawić półprawdy i dodać brakujący kontekst”, co stanowi bezpośrednie wyzwanie dla modelu redakcyjnego Wikipedii kierowanego przez ludzi.

Budujemy Grokipedię @xAI.

Będzie to ogromna poprawa w stosunku do Wikipedii.

Szczerze mówiąc, jest to niezbędny krok w kierunku celu xAI, jakim jest zrozumienie Wszechświata. https://t.co/xvSeWkpALy

— Elon Musk (@elonmusk) 30 września 2025 r.

Krytycy zauważają jednak, że treści generowane przez sztuczną inteligencję mogą mieć swoje własne istotne uprzedzenia i że Sam Grok miał problemy z dokładnością.

Platforma była również przedmiotem kontroli władz amerykańskich w związku z jej statusem organizacji non-profit i rzekomymi wpływami zagranicznymi, szczególnie w odniesieniu do edycji dotyczących tematów drażliwych politycznie. Naciski te zwiększają wyzwanie, jakim jest utrzymanie neutralnego, wiarygodnego źródła informacji w spolaryzowanym świecie.

Ostatecznie Wikimedia apeluje o zdrowszy ekosystem internetowy. Miller wezwał platformy korzystające z jego danych do zapewnienia jasnego przypisania i zachęcenia użytkowników do odwiedzenia źródła. Dla zwykłych użytkowników rada była prosta: „Kiedy szukasz informacji w Internecie, poszukaj cytatów i kliknij, aby przejść do oryginalnego materiału źródłowego”.

Categories: IT Info