La Fundación Wikimedia ha hecho sonar la alarma sobre una caída significativa en el número de visitantes humanos a Wikipedia. En una declaración del 17 de octubre, la organización sin fines de lucro reveló una disminución del 8 % en las páginas vistas en los últimos meses en comparación con el mismo período en 2024.

La organización señala directamente con el dedo el auge Industria de la IA generativa. Los motores de búsqueda y los chatbots de inteligencia artificial recopilan y resumen cada vez más el vasto depósito de conocimientos de Wikipedia, brindando respuestas directas a los usuarios. Esta conveniencia tiene un costo, ya que desvía el tráfico de la fuente.

Esta tendencia amenaza los cimientos mismos de la enciclopedia colaborativa. La fundación advierte que este descenso no es sólo una métrica de vanidad; representa un riesgo crítico para la sostenibilidad a largo plazo de la plataforma.

“Con menos visitas a Wikipedia, menos voluntarios pueden crecer y enriquecer el contenido, y menos donantes individuales pueden apoyar este trabajo”, dijo Marshall Miller, director senior de producto de Wikimedia.

Una relación simbiótica se vuelve parasitaria

El descubrimiento de esta preocupante tendencia comenzó con una anomalía estadística. Según la Fundación Wikimedia, sus analistas notaron por primera vez cantidades inusualmente altas de aparentemente tráfico humano a partir de mayo de 2025, y gran parte de él se originó en Brasil.

Este pico desencadenó una investigación más profunda sobre los datos de tráfico del sitio y los sistemas de detección de bots, que se actualizan constantemente para contrarrestar agentes automatizados cada vez más sofisticados.

Esa investigación descubrió lo que Wikimedia describió como un”nuevo patrón de comportamiento de bot, diseñado para parecer humano”. Después de rediseñar sus sistemas para filtrar estos robots sigilosos y reclasificar los datos de tráfico de marzo a agosto, surgió la verdadera imagen: una disminución significativa y sostenida en las páginas vistas humanas reales.

El pico de tráfico inicial no fue una señal de crecimiento, sino una máscara que oculta un problema más grave.

Esta dinámica resalta una relación creciente y potencialmente parasitaria dentro del ecosistema digital. Si bien casi todos los principales modelos de lenguajes grandes (LLM) dependen en gran medida de los vastos conjuntos de datos seleccionados por humanos de Wikipedia para su capacitación, las plataformas que los implementan no corresponden el valor.

En cambio, los motores de búsqueda y los chatbots de IA brindan respuestas resumidas directamente a los usuarios, eliminando efectivamente la necesidad de hacer clic en el artículo fuente.

Esto no es solo anecdótico; es un cambio mensurable que afecta a toda la industria. Investigaciones de organismos externos han confirmado cómo la IA canibaliza directamente el número de lectores de Wikipedia, y muchos otros editores en línea informan de caídas de tráfico similares.

Un informe de investigación de 2025 de la Columbia Business School explícitamente informó que ChatGPT”parece estar canibalizando la atención de Wikipedia sobre ciertos temas”. El estudio examinó consultas informativas superpuestas y descubrió que cuando los usuarios recurrían a ChatGPT en busca de respuestas objetivas, las visitas a las páginas de Wikipedia sobre esos temas disminuían.

El problema central es la erosión del principio fundamental de la web abierta de citación y interacción directa con el material fuente.

Para Wikipedia, que recibe el apoyo de donantes en lugar de ingresos publicitarios, la amenaza es existencial. El problema es la degradación de su circuito de retroalimentación humana. Menos visitantes significan un grupo más pequeño para reclutar nuevos editores voluntarios, verificadores de datos y moderadores de la comunidad.

Esto corre el riesgo de crear un círculo vicioso en el que una menor supervisión humana podría llevar a una disminución de la calidad, erosionando aún más la confianza pública que hace de Wikipedia una piedra angular de Internet.

La estrategia multifrente de Wikipedia: curación, datos sancionados y Evolución

Internamente, Wikipedia ya está librando una guerra en un frente diferente:”La IA está cayendo”. Un voluntario describió la afluencia de contenido de baja calidad y no revisado generado por los LLM como una”amenaza existencial”. Esta avalancha amenaza con abrumar los procesos de moderación humana del sitio.

En una respuesta directa, la comunidad de voluntarios adoptó una política de”eliminación rápida”en agosto de 2025. Conocida como G15, permite a los administradores eliminar rápidamente artículos con indicios obvios de generación de IA, como citas inventadas o artefactos conversacionales.

La estrategia de la fundación no es puramente defensiva. Ha adoptado un enfoque centrado en el ser humano para su propio desarrollo de IA, centrándose en herramientas que ayudan a los editores en lugar de reemplazarlos. Como afirmó el Director de Aprendizaje Automático, Chris Albon,”creemos que nuestro trabajo futuro con IA tendrá éxito no solo por lo que hacemos, sino también por cómo lo hacemos”.

Wikimedia Enterprise también proporciona una alternativa autorizada al caótico raspado de datos. Al publicar conjuntos de datos estructurados en plataformas como Kaggle de Google, ofrece a los desarrolladores una forma limpia y eficiente de acceder al contenido, lo que potencialmente alivia la presión sobre sus servidores.

Para seguir siendo relevante, la fundación también está explorando nuevas formas de llegar a las audiencias. Las iniciativas incluyen equipos dedicados centrados en el crecimiento de los lectores, un enfoque en la edición móvil, y el proyecto “Future Audiences” para atraer a usuarios más jóvenes en plataformas como TikTok y YouTube.

Las presiones externas aumentan en medio de una Crisis de identidad

Este desafío existencial llega cuando Wikipedia resiste las críticas desde múltiples direcciones. El magnate de la tecnología Elon Musk anunció planes en septiembre de 2025 para una enciclopedia rival llamada”Grokipedia”. Propuso la alternativa impulsada por IA como una forma de contrarrestar los prejuicios percibidos en la plataforma.

Musk prevé que Grok “reescribirá la página para corregir, eliminar las falsedades, corregir las verdades a medias y agregar el contexto faltante”, un desafío directo al modelo editorial dirigido por humanos de Wikipedia.

Estamos construyendo Grokipedia @xAI.

Será una mejora enorme con respecto a Wikipedia.

Francamente, es un paso necesario hacia el objetivo de xAI de comprender el Universo. https://t.co/xvSeWkpALy

— Elon Musk (@elonmusk) 30 de septiembre de 2025

Sin embargo, los críticos señalan que el contenido generado por IA puede conllevar sus propios sesgos importantes, y que La propia Grok ha tenido problemas con la precisión.

La plataforma también ha enfrentado el escrutinio de las autoridades estadounidenses por su condición de organización sin fines de lucro y su supuesta influencia extranjera, particularmente en lo que respecta a las ediciones sobre temas políticamente delicados. Estas presiones agravan el desafío de mantener una fuente de información neutral y confiable en un mundo polarizado.

En última instancia, Wikimedia está haciendo un llamado a favor de un ecosistema de Internet más saludable. Miller instó a las plataformas que utilizan sus datos a proporcionar una atribución clara y alentar a los usuarios a visitar la fuente. Para los usuarios cotidianos, el consejo era simple:”Cuando busques información en línea, busca citas y haz clic para acceder al material original”.

Categories: IT Info