A Wikimedia Foundation soou o alarme sobre uma queda significativa no número de visitantes humanos na Wikipédia. Em um comunicado de 17 de outubro, a organização sem fins lucrativos revelou um declínio de 8% nas visualizações de página nos últimos meses em comparação com o mesmo período de 2024.
A organização aponta o dedo diretamente para o crescimento indústria de IA generativa. Os mecanismos de pesquisa e os chatbots de IA exploram e resumem cada vez mais o vasto repositório de conhecimento da Wikipédia, fornecendo respostas diretas aos usuários. Essa conveniência tem um custo, pois desvia o tráfego da fonte.
Essa tendência ameaça os próprios alicerces da enciclopédia de crowdsourcing. A fundação alerta que este declínio não é apenas uma métrica de vaidade; representa um risco crítico para a sustentabilidade a longo prazo da plataforma.
“Com menos visitas à Wikipédia, menos voluntários podem desenvolver e enriquecer o conteúdo, e menos doadores individuais podem apoiar este trabalho”, disse Marshall Miller, Diretor Sênior de Produto da Wikimedia.
Uma relação simbiótica se torna parasitária
A descoberta dessa tendência preocupante começou com uma anomalia estatística. De acordo com a Wikimedia Foundation, seus analistas notaram pela primeira vez quantidades anormalmente altas de tráfego aparentemente humano a partir de maio de 2025, com grande parte originando-se do Brasil.
Esse aumento desencadeou uma investigação mais profunda sobre os dados de tráfego do site e os sistemas de detecção de bots, que são constantemente atualizados para combater agentes automatizados cada vez mais sofisticados.
Essa investigação revelou o que a Wikimedia descreveu como um “novo padrão de comportamento de bot, projetado para parecer humano”. Depois de reprojetar seus sistemas para filtrar esses bots furtivos e reclassificar os dados de tráfego de março a agosto, a verdadeira imagem emergiu: um declínio significativo e sustentado nas visualizações de páginas humanas reais.
O pico inicial de tráfego não foi um sinal de crescimento, mas uma máscara que esconde um problema mais sério.
Esta dinâmica destaca uma relação crescente e potencialmente parasitária dentro do ecossistema digital. Embora quase todos os principais modelos de grandes linguagens (LLMs) dependam fortemente dos vastos conjuntos de dados da Wikipédia, com curadoria humana, para seu treinamento, as plataformas que os implantam não estão retribuindo o valor.
Em vez disso, os mecanismos de pesquisa e os chatbots de IA fornecem respostas resumidas diretamente aos usuários, eliminando efetivamente a necessidade de clicar no artigo de origem.
Isso não é apenas anedótico; é uma mudança mensurável em todo o setor. Pesquisas de órgãos externos confirmaram como a IA canibaliza diretamente o número de leitores da Wikipédia, e muitos outros editores on-line relatam quedas de tráfego semelhantes.
Um resumo de pesquisa de 2025 da Columbia Business School explicitamente relatou que o ChatGPT “parece estar canibalizando a atenção da Wikipedia para determinados tópicos”. O estudo examinou consultas informativas sobrepostas e descobriu que quando os usuários recorreram ao ChatGPT para obter respostas factuais, as visualizações de páginas da Wikipédia sobre esses tópicos diminuíram.
A questão central é a erosão do princípio fundamental da web aberta de citação e envolvimento direto com o material de origem.
Para a Wikipédia, que é apoiada por doadores e não por receitas publicitárias, a ameaça é existencial. O problema é a degradação do seu ciclo de feedback humano. Menos visitantes significam um grupo menor para recrutar novos editores voluntários, verificadores de fatos e moderadores de comunidade.
Isso corre o risco de criar um ciclo vicioso onde menos supervisão humana poderia levar a um declínio na qualidade, minando ainda mais a confiança do público que faz da Wikipédia uma pedra angular da Internet.
Estratégia Multifrontal da Wikipédia: Curadoria, Dados Sancionados e Evolução
Internamente, a Wikipédia já está travando uma guerra em uma frente diferente: “resíduos de IA”. O fluxo de conteúdo não revisado e de baixa qualidade gerado pelos LLMs foi descrito por um voluntário como uma “ameaça existencial”. Esse dilúvio ameaça sobrecarregar os processos de moderação humana do site.
Em uma resposta direta, a comunidade voluntária adotou uma política de “exclusão rápida” em agosto de 2025. Conhecida como G15, ela permite que os administradores removam rapidamente artigos com sinais óbvios de geração de IA, como citações fabricadas ou artefatos de conversação.
A estratégia da fundação não é puramente defensiva. Adotou uma abordagem centrada no ser humano para o seu próprio desenvolvimento de IA, concentrando-se em ferramentas que auxiliam os editores em vez de substituí-los. Como afirmou o Diretor de Aprendizado de Máquina, Chris Albon, “acreditamos que nosso trabalho futuro com IA será bem-sucedido não apenas por causa do que fazemos, mas também de como o fazemos.”
A Wikimedia Enterprise também está fornecendo uma alternativa sancionada à coleta caótica de dados. Ao lançar conjuntos de dados estruturados em plataformas como o Kaggle do Google, ela oferece aos desenvolvedores uma maneira limpa e eficiente de acessar conteúdo, potencialmente aliviando a pressão sobre seus servidores.
Para permanecer relevante, a fundação também está explorando novas maneiras de alcançar o público. As iniciativas incluem equipes dedicadas focadas no crescimento do número de leitores, com foco na edição móvel, e o projeto “Future Audiences” para envolver usuários mais jovens em plataformas como TikTok e YouTube.
As pressões externas aumentam Em meio a uma crise de identidade
Esse desafio existencial surge no momento em que a Wikipédia resiste às críticas de diversas direções. O magnata da tecnologia Elon Musk anunciou planos em setembro de 2025 para uma enciclopédia rival chamada “Grokipedia”. Ele apresentou a alternativa baseada em IA como uma forma de combater preconceitos percebidos na plataforma.
Musk prevê que Grok “reescreverá a página para corrigir, removerá as falsidades, corrigirá as meias-verdades e adicionará o contexto ausente”, um desafio direto ao modelo editorial liderado por humanos da Wikipédia.
Estamos construindo a Grokipedia @xAI.
Será uma grande melhoria em relação à Wikipédia.
Francamente, é um passo necessário em direção ao objetivo xAI de compreender o Universo. https://t.co/xvSeWkpALy
— Elon Musk (@elonmusk) 30 de setembro de 2025
No entanto, os críticos observam que o conteúdo gerado por IA pode ter seus próprios preconceitos significativos e que A própria Grok teve problemas com a precisão.
A plataforma também enfrentou o escrutínio das autoridades dos EUA sobre seu status de organização sem fins lucrativos e suposta influência estrangeira, especialmente no que diz respeito a edições sobre tópicos politicamente sensíveis. Estas pressões agravam o desafio de manter uma fonte de informação neutra e confiável num mundo polarizado.
Em última análise, a Wikimedia está a fazer um apelo por um ecossistema de Internet mais saudável. Miller pediu às plataformas que usam seus dados que forneçam atribuições claras e incentivem os usuários a visitar a fonte. Para os usuários comuns, o conselho era simples: “Ao pesquisar informações on-line, procure citações e clique no material original.”