W obliczu globalnego buntu wydawców borykających się z katastrofalnymi stratami w ruchu, Microsoft i Google próbują na nowo napisać narrację o kryzysie wyszukiwania sztucznej inteligencji. Z nowych danych opublikowanych w czwartek przez Microsoft wynika, że chociaż wyszukiwanie oparte na sztucznej inteligencji generuje mniej kliknięć, te odesłania przekształcają się trzykrotnie szybciej niż tradycyjny ruch, co stanowi ostry zwrot w kierunku obrony przed „jakością zamiast ilości”.

Takie twierdzenia bezpośrednio podważają niezależne badania i zeznania wydawców, które opisują przejście na „wyszukiwarki odpowiedzi” obsługujące zero kliknięć nie jako wzrost wydajności, ale jako egzystencjalne zagrożenie dla otwartej sieci wspieranej reklamami.

Kontrofensywa platformy: Nowa definicja wartości

Zespół Microsoftu ds. usługi Bing opublikował w czwartek nowe dane, argumentując, że narracja o „załamaniu ruchu” nie ma sensu, twierdząc, że polecenia oparte na sztucznej inteligencji konwertują ze znacznie wyższym współczynnikiem konwersji niż w przypadku tradycyjnego wyszukiwania.

Według firmy Microsoft rekomendacje AI konwertują teraz nawet trzykrotnie wskaźnik standardowego ruchu związanego z wyszukiwaniem, przy czym określone platformy, takie jak Copilot, wykazują 17-krotny wzrost w porównaniu z ruchem bezpośrednim.

„Najnowsze dane dotyczące platformy Microsoft Clarity potwierdzają tę prawidłowość. Analizując ruch w 1200 witrynach wydawców i wiadomości, Clarity podaje, że polecenia oparte na sztucznej inteligencji wzrosły o 155% w ciągu ośmiu miesięcy i zostały przekonwertowane nawet trzykrotnie szybciej niż w przypadku tradycyjnych kanałów, takich jak wyszukiwanie i społecznościowe.”

„Mimo że skierowania oparte na sztucznej inteligencji nadal stanowią mniej niż W przypadku 1% wszystkich odwiedzin użytkownicy ci konsekwentnie wykazują wyższe zamiary i zaangażowanie, rejestrując się, subskrybując lub dokonując znacznie większych zakupów.”

U podstaw tej obrony leży fundamentalna różnica zdań co do tego, co stanowi wartość w sieci. Fabrice Canel, główny menedżer produktu w Bing, określa to jako zmianę „waluty”, argumentując, że widoczność w podsumowaniach sztucznej inteligencji buduje preferencje jeszcze przed kliknięciem.

Sugeruje, że „dla marketerów widoczność sama w sobie staje się formą waluty. Jeśli kształtujesz preferencje, zanim w ogóle nastąpi kliknięcie”.

Zamiast mierzyć sukces na podstawie odsłon, Microsoft twierdzi, że wydawcy muszą skupić się na dopasowaniu. Canel argumentuje, że celem jest „dopasowanie się do intencji użytkownika oraz zapewnienie przejrzystości, wiarygodności i wartości na każdym etapie odkrywania, tak aby gdy ktoś jest gotowy do działania, Twoja marka lub treść stały się naturalnym wyborem”.

Odzwierciedlając najnowszą strategię PR Google, ta obrona „jakość ponad ilość” ma na celu zmianę branżowych wskaźników KPI.

W sierpniu dyrektor ds. wyszukiwania Google Liz Reid argumentowała, że ​​chociaż liczba zapytań może się zmienić, uzyskane w ten sposób kliknięcia mają „wyższą wartość”. Stwierdziła, że „reakcja sztucznej inteligencji może ujawnić ukształtowanie terenu, ale ludzie klikają, aby zejść głębiej i dowiedzieć się więcej, a kiedy to robią, te kliknięcia są bardziej wartościowe”.

W rzeczywistości platformy próbują na nowo zdefiniować wskaźniki otwartej sieci, odchodząc od „odsłon” (które wspierają przychody z reklam) na „konwersje” (które wspierają transakcje).

Konflikt danych: niezależne badania kontra platforma PR

Chociaż wewnętrzne dane firmy Microsoft dają obraz ruchu o wysokiej wydajności, niezależne badania mówią co innego. badanie opublikowane we wrześniu przez agencję cyfrową Amsive wykazało znikomą różnicę we współczynnikach konwersji między sztuczną inteligencją a bezpłatnymi wynikami wyszukiwania.

„Patrząc średnie we wszystkich witrynach, ruch organiczny przekonwertowany na poziomie Na pierwszy rzut oka oznacza to niewielką przewagę w przypadku ruchu LLM.”

„Jednak same średnie mogą wprowadzać w błąd. Aby sprawdzić, czy różnica była stała w różnych witrynach, obliczyliśmy średnią różnicę na poziomie witryny (LLM – organiczne), która wyniosła +0,27 punktu procentowego (pp).”.

Will Guevara z Amsive zauważył, że „wyszukiwanie organiczne nadal dominuje we wszystkich witrynach”. To najbardziej spójny i bezdyskusyjny wniosek z danych.”

Takie rozbieżności sugerują, że argument „jakość” może w dużym stopniu opierać się na konkretnych zapytaniach transakcyjnych, ignorując szersze wyszukiwania informacyjne, które generują większość ruchu w sieci.

Sceptycyzm branży pogłębia silny kontrast między twierdzeniami platformy a śledzeniem przez strony trzecie. Badanie Pew Research opublikowane w lipcu potwierdziło, że kiedy pojawia się Przegląd AI, kliknięcia linków zewnętrznych spadają z 15% do zaledwie 8%.

„Uderzające 53% witryn internetowych, do których prowadzą linki Przegląd AI Google, nie pojawia się w pierwszej dziesiątce wyników konwencjonalnego wyszukiwania. Wskazuje to na znaczną rozbieżność z ustalonymi sygnałami rankingowymi tradycyjnego wyszukiwania.”

„Powołując się na znacznie mniej źródeł niż swoje odpowiedniki, OpenAI GPT-4o z narzędziem wyszukiwania opierała się na średnio zaledwie 0,4 stronach internetowych na zapytanie, opierając się w dużej mierze na swojej wewnętrznej, wcześniej przeszkolonej wiedzy.”

Popierając pogląd wydawcy, że wyszukiwarki AI nie tylko filtrują ruch, ale aktywnie go blokują, odkrycia te przedstawiają ponury obraz. Co więcej, badanie dotyczące niezawodności wyszukiwania AI wskazuje, że systemy te często opierają się na wąskim zestawie źródeł, co ogranicza różnorodność otwartej sieci.

Rzeczywistość wydawcy: wielkość to przetrwanie

Dla firm medialnych przejście od wolumenu do konwersji nie jest prostym kompromisem; to upadek modelu biznesowego. Wydawcy tacy jak People Inc. odnotowali spadek ruchu w ostatnich latach nawet o 65%. Neil Vogel, dyrektor generalny People Inc., był bezceremonialny w swojej ocenie wyszukiwarek wykorzystujących sztuczną inteligencję, stwierdzając, że „wiedzą o tym i nie dzielą swojego robota. Zatem celowo działają tu jako zły aktor”.

W przypadku dziennikarstwa wspieranego reklamami rzeczywistość ekonomiczna jest taka, że ​​wysokie współczynniki konwersji w przypadku <1% ruchu nie mogą zastąpić przychodów utraconych w wyniku ogromnego spadku liczby odsłon. Danielle Coffey, dyrektor generalna stowarzyszenia News/Media Alliance, podsumowała rozpacz branży, zauważając, że „linki były ostatnią zbawienną cechą wyszukiwania, która zapewniła wydawcom ruch i przychody. Teraz Google po prostu przejmuje treści na siłę i wykorzystuje je bez powrotu".

Konflikt przeradzający się w spory prawne i regulacyjne na całym świecie jest skutkiem nowego dochodzenia antymonopolowego rzekomo wymierzonego w praktyki Google w zakresie rankingu wiadomości w Europie, podczas gdy niemiecka grupa medialna Corint Media żąda 1,3 miliarda euro rocznie na sztuczną inteligencję wykorzystanie treści.

Ta zmiana, daleka od prostego zwiększenia wydajności, stanowi fundamentalny przełom w wymianie wartości w sieci. Wydaje się, że nawet zespół prawny Google zdaje sobie sprawę z powagi sytuacji.

W pozwie złożonym 5 września w sądzie w obronie przed rozpadem swojej działalności reklamowej firma przyznała, że „fakt jest taki, że obecnie otwarta sieć już gwałtownie podupada, a propozycja zbycia złożona przez powodów tylko przyspieszy ten spadek…”

W miarę jak Google integruje Gemini 3 z wyszukiwarką, aby stworzyć w pełni „agentyczne” doświadczenia, które mogą wykonywać zadania bez opuszczania strony wyników, presja na wydawców prawdopodobnie się nasili. Branżę, uwięzioną pomiędzy obietnicami platform dotyczącymi „wyższej jakości” ruchu a trudną rzeczywistością kurczącej się publiczności, branża stoi przed niepewną przyszłością.

Categories: IT Info