Nowe badanie akademickie podaje poważne wątpliwości co do wiarygodności wyszukiwania opartego na sztucznej inteligencji w Google i OpenAI. Z niedawno opublikowanego artykułu badawczego wynika, że ​​narzędzia wyszukiwania generatywnego często korzystają z mniejszej liczby lub mniej popularnych źródeł niż tradycyjna wyszukiwarka Google.

Systemy sztucznej inteligencji również borykają się z tematami wrażliwymi na czas i wykazują poważne niespójności już w ciągu zaledwie kilku miesięcy. Odkrycia te sugerują, że chociaż sztuczna inteligencja może zapewnić szybkie odpowiedzi, często pozostaje w tyle pod względem dokładności i jakości źródła, co stanowi wyzwanie dla użytkowników polegających na wyszukiwaniu aktualnych informacji.

Sztuka wyszukiwania AI w mniejszych, mniej popularnych źródłach

Zagłębiając się w mechanikę wyszukiwania AI, nowy artykuł opublikowany w arXiv ujawnia zasadniczą zmianę w sposobie pozyskiwania informacji. Badaczki Elisabeth Kirsten i jej współpracownicy porównali tradycyjną wyszukiwarkę Google z czterema generatywnymi systemami sztucznej inteligencji – przeglądem sztucznej inteligencji Google, Gemini 2.5 Flash, wyszukiwarką GPT-4o i GPT-4o z narzędziem wyszukiwania.

Analiza ponad 4600 zapytań z zakresu wiedzy ogólnej, polityki, nauki i zakupów wykazała, że wyniki generowane przez sztuczną inteligencję często pochodzą z innego, często mniej widocznego fragmentu sieci.

Uderzające 53% witryn, do których prowadzą linki w przeglądzie AI Google, nie pojawiło się w pierwszej dziesiątce wyników konwencjonalnego wyszukiwania. Wskazuje to na znaczną rozbieżność z ustalonymi sygnałami rankingowymi tradycyjnego wyszukiwania.

Powołując się na znacznie mniej źródeł niż jego odpowiedniki, narzędzie OpenAI GPT-4o z narzędziem wyszukiwania korzystało średnio z zaledwie 0,4 stron internetowych na zapytanie, opierając się w dużej mierze na swojej wewnętrznej, wcześniej przeszkolonej wiedzy.

Z kolei narzędzia Google AI Review i Gemini cytowały średnio ponad 8,5 strony, wykazujące większą zależność od wyszukiwania w sieci zewnętrznej. W przypadku niejednoznacznych zapytań w badaniu zauważono, że tradycyjne wyszukiwanie nadal zapewnia lepsze pokrycie wielu punktów widzenia.

Niestabilne i zawodne: odpowiedzi AI zmieniają się z dnia na dzień

Poza źródłem informacji badanie ujawnia krytyczną wadę spójności. Wyszukiwarki generatywne wydają się charakteryzować dużą zmiennością, a ich odpowiedzi i źródła zmieniają się dramatycznie w krótkich okresach.

Aby to sprawdzić, badacze powtórzyli swoje zapytania w odstępie dwóch miesięcy i zmierzyli stabilność wyników. Dla użytkowników oczekujących wiarygodnych i powtarzalnych informacji wynik był niepokojący.

Wyniki ponownego testu były rozczarowujące. Tradycyjna wyszukiwarka Google zachowała 45% spójność prezentowanych źródeł. W przypadku spadku, przegląd sztucznej inteligencji Google wykazał jedynie 18% spójności, co oznacza, że ​​jego źródła były prawie całkowicie różne w poszczególnych testach.

Ta niestabilność sugeruje, że zsyntetyzowane odpowiedzi, jakie otrzymują użytkownicy, nie tylko różnią się od tradycyjnych wyszukiwań, ale są też nieprzewidywalne z dnia na dzień, co podważa ich wiarygodność w przypadku jakichkolwiek poważnych zadań badawczych lub weryfikacyjnych.

Zmaganie się z „Teraz”: AI zawodzi w przypadku wiadomości wrażliwych na czas

W przypadku zapytań wrażliwych na czas dotyczących ostatnich wydarzeń badanie ujawniło krytyczne awarie, które podkreślają niebezpieczeństwo polegania na modelach sztucznej inteligencji przy nieaktualnej wiedzy wewnętrznej. Naukowcy przetestowali systemy, korzystając z popularnych tematów, w tym jednego zapytania o „przyczynę śmierci Ricky’ego Hattona” – byłego boksera, który zmarł we wrześniu 2025 r.

Obydwa modele GPT, choć nie opierały się w dużym stopniu na wyszukiwaniu w Internecie w czasie rzeczywistym, nie przeszły testu. Błędnie zgłosili, że Hatton wciąż żyje, co stanowiło poważny błąd rzeczowy wynikający z braku dostępu do aktualnych informacji.

Ta konkretna awaria pokazuje podstawową słabość: bez solidnego, dynamicznego wyszukiwania wyszukiwanie AI może z pewnością przedstawić niebezpiecznie nieaktualne informacje jako fakt. Chociaż systemy wspomagane wyszukiwaniem, takie jak Gemini, działały lepiej, incydent ten podkreśla ryzyko związane z najświeższymi wiadomościami lub ewolucją wydarzeń.

Pogłębiająca się luka w zaufaniu w wojnie informacyjnej AI

Takie wzorce zawodności odzwierciedlają najnowsze ustalenia z przełomowego badania BBC, które wykazało istotne błędy w 45% odpowiedzi asystentów AI dotyczących wiadomości. W raporcie tym odnotowano użycie „ceremonialnych cytatów” – linków, które wyglądają na wiarygodne, ale w rzeczywistości nie potwierdzają przedstawionych twierdzeń.

Jean Philip De Tender, dyrektor ds. mediów w EBU, zauważył systemowy charakter problemu. „To badanie niezbicie pokazuje, że te uchybienia nie są odosobnionymi incydentami. Mają one charakter systemowy, transgraniczny i wielojęzyczny, co naszym zdaniem zagraża zaufaniu publicznemu”.

Coraz więcej dowodów podsyca i tak już napięty konflikt między platformami technologicznymi a wydawcami wiadomości. Wydawcy twierdzą, że wyszukiwarki oparte na sztucznej inteligencji są nie tylko zawodne, ale aktywnie szkodzą ich firmom, usuwając treści w celu uzyskania bezpośrednich odpowiedzi, eliminując potrzebę klikania przez użytkowników do oryginalnego źródła.

Ten trend, potwierdzony przez badanie Pew Research Center, które pokazuje, że liczba kliknięć spada po wyświetleniu Przeglądów AI, przerywa długotrwałą wymianę wartości w otwartej sieci.

Jak twierdzi Danielle Coffey, dyrektor generalna firmy Według News/Media Alliance: „Linki były ostatnią przydatną cechą wyszukiwania, która zapewniała wydawcom ruch i przychody. Teraz Google po prostu przejmuje treść na siłę i wykorzystuje ją bez zwrotu”.

Ostatecznie autorzy artykułu argumentują, że całe ramy oceny jakości wyszukiwania wymagają gruntownej zmiany w epoce sztucznej inteligencji. Obecne wskaźniki zaprojektowane dla rankingowych list linków są niewystarczające do oceny tych nowych systemów.

„Nasza praca wskazuje na potrzebę nowych metod oceny, które łącznie uwzględniają różnorodność źródeł, zakres koncepcyjny i zachowanie syntezy w systemach wyszukiwania generatywnego.”

Autorzy podkreślają również potrzebę lepszych mechanizmów radzenia sobie z szybkim tempem zmian informacji w Internecie.

„Te ustalenia podkreślają znaczenie integracji świadomości czasowej i dynamicznego wyszukiwania w ramy oceny wyszukiwania generatywnego.”

Dopóki takie standardy nie zostaną opracowane i przyjęte, obietnica inteligentniejszego i szybszego wyszukiwania opartego na sztucznej inteligencji pozostaje przyćmiona utrzymującymi się kwestiami niezawodności, spójności i zaufania.

Categories: IT Info