En medio de una revuelta global de editores que enfrentan pérdidas de tráfico catastróficas, Microsoft y Google están intentando reescribir la narrativa de la crisis de búsqueda de IA. Nuevos datos publicados por Microsoft el jueves afirman que, si bien la búsqueda impulsada por IA genera menos clics, esas referencias se convierten a una tasa tres veces mayor que el tráfico tradicional, un giro brusco hacia una defensa de”calidad sobre cantidad”.

Tales afirmaciones desafían directamente los estudios independientes y los testimonios de los editores, que describen el cambio a”motores de respuesta”de cero clics no como una ganancia de eficiencia, sino como una amenaza existencial para la web abierta con publicidad.

La contraofensiva de la plataforma: redefinición Valor

El equipo Bing de Microsoft publicó nuevos datos el jueves argumentando que la narrativa del”colapso del tráfico”no tiene sentido, afirmando que las referencias impulsadas por IA se convierten a tasas significativamente más altas que la búsqueda tradicional.

Según Microsoft, las referencias de IA ahora convierten hasta 3 veces la tasa de tráfico de búsqueda estándar, con plataformas como Copilot muestran un aumento de 17 veces sobre el tráfico directo.

“Los últimos datos de la plataforma de Microsoft Clarity confirman este patrón. Al analizar el tráfico en 1200 sitios de editores y noticias, Clarity informa que las referencias impulsadas por IA crecieron un 155 % en ocho meses y se convirtieron a una tasa hasta tres veces mayor que los canales tradicionales, como la búsqueda y las redes sociales”.

“Aunque las referencias de IA todavía representan menos del 1 % del total de visitas, estos usuarios muestran constantemente mayor intención y compromiso, registrarse, suscribirse o comprar a precios mucho mayores”.

En el centro de esta defensa se encuentra un desacuerdo fundamental sobre lo que constituye valor en la web. Fabrice Canel, director principal de productos de Bing, enmarca esto como un cambio en la”moneda”, argumentando que la visibilidad en los resúmenes de IA genera preferencia antes de que se produzca un clic.

Sugiere que”para los especialistas en marketing, la visibilidad en sí misma se está convirtiendo en una forma de moneda. Si estás dando forma a la preferencia antes de que se produzca un clic”.

En lugar de medir el éxito por las páginas vistas, Microsoft sostiene que los editores deben centrarse en la alineación. Canel sostiene que el objetivo es”alinearse con la intención del usuario y brindar claridad, credibilidad y valor en cada etapa del descubrimiento, de modo que cuando alguien esté listo para actuar, su marca o contenido se convierta en la elección natural”.

Reflejando la reciente estrategia de relaciones públicas de Google, esta defensa de”calidad sobre cantidad”intenta cambiar el KPI de la industria.

En agosto, la jefa de búsqueda de Google, Liz Reid, argumentó que si bien el volumen de consultas puede cambiar, los clics resultantes son”de mayor valor”. Afirmó que”una respuesta de IA podría proporcionar la disposición del terreno, pero las personas hacen clic para profundizar y aprender más, y cuando lo hacen, estos clics son más valiosos”.

Efectivamente, las plataformas están intentando redefinir las métricas de la web abierta, alejándose de las”páginas vistas”(que respaldan los ingresos por publicidad) a las”conversiones”(que respaldan las transacciones).

El conflicto de datos: estudios independientes versus plataforma PR

Si bien los datos internos de Microsoft muestran una imagen de tráfico de alta eficiencia, la investigación independiente cuenta una historia diferente. Un estudio publicado en septiembre por la agencia digital Amsive encontró una diferencia insignificante en las tasas de conversión entre la IA y la búsqueda orgánica.

“Al observar los promedios en todos los sitios, el tráfico orgánico se convirtió en 4,60%, mientras que las referencias de LLM se convirtieron en 4,87%. A primera vista, esto sugiere una ventaja modesta para el tráfico de LLM. Esta fue la conclusión más consistente e indiscutible de los datos.”

Tales discrepancias sugieren que el argumento de la”calidad”puede depender en gran medida de consultas transaccionales específicas, ignorando las búsquedas informativas más amplias que generan la mayor parte del tráfico web.

Agravando el escepticismo de la industria está el fuerte contraste entre las afirmaciones de la plataforma y el seguimiento de terceros. Un estudio de Pew Research publicado en julio confirmó que cuando aparece una descripción general de IA, los clics en enlaces externos caen del 15 % a solo el 8 %.

“Un sorprendente 53 % de los sitios web vinculados por la descripción general de IA de Google no aparecieron en los 10 primeros resultados de una búsqueda convencional. Esto indica una divergencia significativa con respecto a las señales de clasificación establecidas de la búsqueda tradicional”.

“Citando muchas menos fuentes que sus contrapartes, GPT-4o de OpenAI con una herramienta de búsqueda se basó en un promedio de solo 0,4 páginas web por consulta, apoyándose en gran medida en su conocimiento interno previamente entrenado”.

Estos hallazgos, que respaldan la opinión del editor de que los motores de búsqueda de IA no solo filtran el tráfico, sino que lo secuestran activamente, pintan un panorama sombrío. Para resaltar aún más el riesgo, el estudio sobre la confiabilidad de las búsquedas con IA señala que estos sistemas a menudo dependen de un conjunto limitado de fuentes, lo que reduce la diversidad de la web abierta.

La realidad del editor: el volumen es supervivencia

Para las empresas de medios, el cambio del volumen a la conversión no es una simple compensación; es un colapso del modelo de negocio. Editores como People Inc. han informado caídas en el tráfico de hasta un 65% en los últimos años. Neil Vogel, director ejecutivo de People Inc., fue contundente en su evaluación de los motores de búsqueda impulsados ​​por IA, afirmando que”ellos lo saben y no están dividiendo su rastreador. Por lo tanto, son un mal actor intencional aquí”.

Para el periodismo respaldado por publicidad, la realidad económica es que las altas tasas de conversión en <1% del tráfico no pueden reemplazar los ingresos perdidos por una disminución masiva en las páginas vistas. Danielle Coffey, directora ejecutiva de News/Media Alliance, resumió la desesperación del sector, señalando que"los enlaces eran la última cualidad redentora de la búsqueda que proporcionaba tráfico e ingresos a los editores. Ahora Google simplemente toma el contenido por la fuerza y lo utiliza sin retorno".

El conflicto, que se intensifica en batallas legales y regulatorias en todo el mundo, da lugar a una nueva investigación antimonopolio que, según se informa, apunta a las prácticas de clasificación de noticias de Google en Europa, mientras que el grupo de medios alemán Corint Media exige 1.300 millones de euros al año por contenido de IA. uso.

Lejos de ser una simple mejora de la eficiencia, este cambio representa una ruptura fundamental en el intercambio de valor de la web. Incluso el propio equipo legal de Google parece reconocer la gravedad de la situación.

En un expediente judicial del 5 de septiembre en el que se defendía contra una ruptura de su negocio publicitario, la compañía admitió que”el hecho es que hoy en día, la web abierta ya está en rápido declive y la propuesta de desinversión de los demandantes sólo aceleraría ese declive…”

A medida que Google integra Gemini 3 en la Búsqueda para crear experiencias totalmente”agentes”que pueden ejecutar tareas sin salir de la página de resultados, la presión sobre los editores aumenta. probablemente se intensificará. Atrapada entre las promesas de la plataforma de tráfico de”mayor calidad”y la dura realidad de una audiencia cada vez menor, la industria enfrenta un futuro incierto.

Categories: IT Info