En ny akademisk studie sår alvorlig tvil om påliteligheten til AI-drevet søk fra Google og OpenAI. En nylig publisert forskningsartikkel fant at generative søkeverktøy ofte bruker færre eller mindre populære kilder enn tradisjonelle Google-søk.
AI-systemene sliter også med tidssensitive emner og viser store inkonsekvenser i løpet av bare noen få måneder. Disse funnene tyder på at selv om AI kan gi raske svar, henger den ofte etter når det gjelder nøyaktighet og kildekvalitet, noe som utgjør en utfordring for brukere som er avhengige av søk etter oppdatert informasjon.
AI-søk på gambling på færre, mindre populære kilder
Fordyper seg i mekanikken til AI-søk, den nye papir publisert på arXiv avslører et grunnleggende skifte i hvordan informasjon hentes. Forskerne Elisabeth Kirsten og hennes kolleger sammenlignet tradisjonell Google-søk med fire generative AI-systemer – Googles AI Overview, Gemini 2.5 Flash, GPT-4o Search og GPT-4o med et søkeverktøy.
Deres analyse av over 4600 søk som spenner over generell kunnskap, politikk, vitenskap og shopping, fant at AI-genererte resultater ofte trekker fra en annen side, seksjon og>
Slagende 53 % av nettstedene som er koblet til via Googles AI-oversikt, dukket ikke opp blant de 10 beste resultatene av et konvensjonelt søk. Dette indikerer en betydelig avvik fra de etablerte rangeringssignalene til tradisjonelle søk.
OpenAIs GPT-4o med et søkeverktøy, som siterer langt færre kilder enn sine motparter, var basert på et gjennomsnitt på bare 0,4 nettsider per søk, og lener seg sterkt på sin interne, forhåndsopplærte kunnskap.
I kontrast, Google Oversikt og Gemini 8,5 sider på gjennomsnitt, viser en større avhengighet av ekstern netthenting. For tvetydige forespørsler bemerket studien at tradisjonelle søk fortsatt ga bedre dekning av flere synspunkter.
Ustabil og upålitelig: AI Answers Change by the Day
Utover sourcing, avslører studien en kritisk feil i konsistensen. Generative søkemotorer ser ut til å være svært flyktige, og svarene og kildene deres endrer seg dramatisk over korte perioder.
For å teste dette, gjentok forskerne søkene sine med to måneders mellomrom og målte stabiliteten til resultatene. For brukere som forventet pålitelig og repeterbar informasjon, var resultatet bekymringsfullt.
Resultatene fra re-testen var skuffende. Tradisjonelt Google-søk opprettholdt 45 % konsistens i kildene den presenterte. I en drop-off viste Googles AI-oversikt bare 18 % konsistens, noe som betyr at de underliggende kildene var nesten helt forskjellige fra en test til den neste.
Denne ustabiliteten antyder at de syntetiserte svarene brukere mottar ikke bare er forskjellige fra tradisjonelle søk, men også er uforutsigbare fra dag til dag, noe som undergraver deres pålitelighet for alle seriøse undersøkelser eller . «Nå»: AI Fails on Time Sensitive News
For tidssensitive spørsmål om nylige hendelser, avslørte studien kritiske feil som fremhever faren ved å stole på AI-modeller med utdatert intern kunnskap. Forskere testet systemene ved å bruke trendtemaer, inkludert ett spørsmål om «Ricky Hattons dødsårsak», en tidligere bokser som gikk bort i september 2025. Begge GPT-modellene, da de ikke var avhengige av sanntids netthenting, mislyktes i testen. De rapporterte feilaktig at Hatton fortsatt var i live, en betydelig faktafeil som stammer fra mangel på tilgang til gjeldende informasjon. Denne spesifikke feilen demonstrerer en kjernesvakhet: uten robust, dynamisk gjenfinning kan AI-søk med sikkerhet presentere farlig utdatert informasjon som fakta. Selv om gjenfinningsforsterkede systemer som Gemini presterte bedre, understreker hendelsen risikoen for siste nyheter eller utviklende hendelser. Slike mønstre av upålitelighet gjenspeiler nylige funn fra en landemerke BBC-studie, som fant betydelige feil fra AI-45 % nye svar. assistenter. Denne rapporten bemerket bruken av «seremonielle sitater» – lenker som ser autoritative ut, men som faktisk ikke støtter påstandene. Jean Philip De Tender, mediedirektør ved EBU, bemerket problemets systemiske natur.”Denne forskningen viser definitivt at disse feilene ikke er isolerte hendelser. De er systemiske, grenseoverskridende og flerspråklige, og vi tror dette setter offentlig tillit i fare.” En voksende mengde bevis gir næring til en allerede anspent konflikt mellom tekniske plattformer og nyhetsutgivere. Utgivere hevder at AI-søkemotorer ikke bare er upålitelige, men aktivt skader virksomhetene deres ved å skrape innhold for å gi direkte svar, og eliminerer behovet for brukere å klikke seg videre til den opprinnelige kilden. Denne trenden, bekreftet av en Pew Research Center-studie som viser at klikk stuper når AI-oversikter vises, bryter den langvarige utvekslingen av webverdier til Coffey, . News/Media Alliance, sa det:”Koblinger var den siste innløsende kvaliteten på søket som ga utgivere trafikk og inntekter. Nå tar Google bare innhold med makt og bruker det uten retur.” Til syvende og sist hevder avisens forfattere at hele rammeverket for å bedømme søkekvalitet trenger en overhaling for AI-æraen. Nåværende beregninger, designet for rangerte lenker, er utilstrekkelige for å evaluere disse nye systemene. “Vårt arbeid viser behovet for nye evalueringsmetoder som i fellesskap vurderer kildemangfold, konseptuell dekning og synteseatferd i generative søkesystemer.” Forfatterne understreker også behovet for bedre informasjonsmekanismer for å håndtere den raske informasjonsmekanismen på nettet.“> understreke viktigheten av å integrere tidsbevissthet og dynamisk gjenfinning i generative søkeevalueringsrammeverk.” Inntil slike standarder er utviklet og tatt i bruk, forblir løftet om et smartere, raskere AI-søk uklart av vedvarende problemer med pålitelighet, konsistens og tillit.A Widening Trust Gap in the AI Information War