S’exprimant cette semaine lors d’une conférence Fortune Tech, Neil Vogel a critiqué le géant de la recherche pour utiliser un seul Crawler Web pour son index de recherche et ses produits d’IA. Le Crawler les supprimerait également des résultats de recherche vitaux.

Vogel a déclaré que cette tactique permet à Google de «voler notre contenu de se composer avec nous» Les développeurs.

“Crawler Checkmate”de Google ne laisse pas les éditeurs

Le cœur de l’accusation, détaillé par Vogel lors de la conférence Fortune Brainstorm Tech, est un crawler unifié de Google. Il indexe le Web pour la recherche traditionnelle-un service des éditeurs dépend toujours de-tout en rassemblant simultanément les grandes quantités de données nécessaires pour former les modèles d’IA génératifs de l’entreprise.

Cette double fonction présente les sociétés de médias avec un choix impossible et non rédigé.

Patronage.

Il a expliqué: «Le Web n’a jamais été gratuit. Quelqu’un a toujours payé pour cela. Et historiquement, le grand patron d’Internet a été Google… qui a été le moteur qui a financé la création du Web que nous connaissons aujourd’hui. Il a ensuite fourni les outils pour que les éditeurs transforment ce trafic en revenus, créant le moteur économique qui a financé le Web moderne.

Mais cette affaire fondamentale a été unilatéralement brisée par la montée en puissance de l’IA. Prince a détaillé le changement, en déclarant: «Ce qui change, c’est que l’interface du Web passe des moteurs de recherche à ce qui est de plus en plus des moteurs de réponses… ce que cela a fait, c’est qu’il a rendu 10 fois plus difficile d’obtenir du trafic de Google que ce n’était que des moteurs il y a quelques années. Modèle.

Cela a conduit à un effondrement catastrophique dans la circulation, une tendance que beaucoup ont étiqueté une menace grave pour l’industrie. Les données de Cloudflare illustre l’échelle de la crise: où les chenilles d’Openai ont envoyé une fois un visiteur pour chaque 250 pages gratté, ce ratio a craté Formation sur l’IA, ils sont simultanément indexés à partir de la recherche Google.

Cela signifie sacrifier l’intégralité de leur trafic de recherche restant. Vogel a révélé que pour son entreprise, qui possède des marques comme People and Travel + Leisure, Google Traffic a déjà pluMled de 65 pour le 65% pour le”Target=”_ _”20S”En trois ans , faisant la perspective de perdre le reste une menace de fin de commerce. Le fait et a fait pour nous, c’est que si vous êtes un éditeur, vous avez besoin que la seule chose vous importe maintenant… c’est un effet de levier.”

Cet arrangement technique oblige efficacement les éditeurs à abandonner leur contenu, abandonnant cet effet de levier avant qu’ils ne puissent même l’utiliser. Vogel était franc dans son évaluation, déclarant:”Google a un robot, ce qui signifie qu’ils utilisent le même robot pour leur recherche… comme ils le font pour leurs produits d’IA, où ils volent tout notre contenu.”

La stratégie de Google, a-t-il soutenu, n’est pas un accident mais un choix délibéré par le géant de la recherche.”Ils le savent, et ils ne divisent pas leur robot. Ils sont donc un mauvais acteur intentionnel ici”, a-t-il déclaré au public.

Une industrie divisée: bloquer les robots et forcer les accords

Dans ce conflit d’escalade, les éditeurs tracent des lignes claires entre allies et adversaires. Vogel a félicité Openai en tant que «bon acteur» pour conclure un contenu commercial avec People INC.

Cela contraste fortement avec l’approche de Google, qu’il a formulée comme vol.”Ce qui n’est pas juste à ce sujet, c’est: vous ne pouvez pas prendre notre contenu pour rivaliser avec nous”, a affirmé Vogel.

Pour regagner l’effet de levier, les éditeurs se tournent vers des contre-mesures techniques. People Inc. utilise des outils de la société d’infrastructure Web CloudFlare pour bloquer d’autres robots de l’IA.

Vogel a confirmé que cette stratégie fonctionnait, notant qu’elle a incité d’autres grands fournisseurs LLM pour commencer les négociations.

CloudFlare PDG Matthew Prince, parlant sur le même panel, a approuvé cette stratégie. Il a été un critique vocal de l’impact de l’IA sur le Web, appelant auparavant l’effondrement dans le trafic des éditeurs comme une «menace existentielle».

Son entreprise a déployé une suite d’outils défensifs pour les éditeurs.

402 Code de statut.

Prince a été optimiste quant à la capacité de son entreprise à appliquer ces nouvelles règles, en plaisantant,”et vous me dites, je ne peux pas arrêter un nerd avec une société C à Palo Alto?”

Prince a prédit que le marché et la pression réglementaire finiraient par forcer la main de Google.”Ma prédiction est que, à cette époque l’année prochaine, Google paiera des créateurs de contenu pour ramper leur contenu et le mettre dans des modèles d’IA”, a-t-il prévu.

La fin de la grande affaire du Web

cette affaire signale la dégradation du modèle économique fondamental du Web. Le passage des «moteurs de recherche» aux «moteurs de réponses» est au cœur de cette crise.

Lorsqu’un utilisateur obtient un résumé complet directement sur la page des résultats, l’incitation à cliquer sur la source d’origine disparaît, ce qui a permis à Danielle de Danielle de Danielle, Ceo de la rebelle de la rebelle de la rebelle de The News/Meas La recherche qui a donné aux éditeurs le trafic et les revenus. Les risques Web devenant une coquille creusée, dominée par un contenu synthétisé par l’IA qui se nourrit d’un bassin de travail réduit par l’homme.

Prince a mis une grande partie du blâme pour l’état actuel du Web aux pieds de Google, arguant que ses incitations basées sur le trafic ont alimenté une culture de clics sur la qualité.”Tout ce qui ne va pas avec le monde aujourd’hui est, à un certain niveau, la faute de Google”, a-t-il affirmé controversé.

, sa collègue Janice Min, PDG d’Ankler Media, a fait écho à ceci, en appelant Big Tech”Content Kleptoman.”

Les éditeurs se battent pour la survie, le conflit sur les données, l’utilisation équitable et la rémunération sont prêtes à définir le prochain ERA de l’Internet. La question centrale reste de savoir si un nouveau modèle durable peut être construit avant l’ancien s’effondre complètement.

Categories: IT Info