Google utvider sin eksperimentelle AI-modus i søk med en ny multimodal evne som lar brukere laste opp eller ta et bilde og motta et AI-generert svar på hva som er i bildet. Den nye funksjonen, som ble lansert 7. april, er nå tilgjengelig for millioner flere brukere i USA via labs On Android og iOS. href=”https://labs.google.com/search/experiment/22″Target=”_ Blank”> Google One AI Premium-abonnenter , kombinerer Gemini-språkmodellen med Google Lens. Resultatet er en opplevelse som lar AI gjenkjenne objekter på et bilde, forstå deres kontekst og generere en strukturert respons med lenker, forslag og valgfrie oppfølgingshjul.

AI-modus kan nå forstå hele scenen i et bilde, inkludert konteksten til hvordan gjenstander forholder seg til hverandre og deres unike materialer, farger, former og arrangementer. Systemet fungerer ved å bruke en”fan-out”-teknikk som genererer flere spørsmål fra bildet, som deretter blir syntetisert til et samtale svar.

kilde: google

thoogle> google> google> thoogs conssentation Oppdatering markerer et skifte i hvordan søkefunksjoner. Med den nye AI-modus kan brukerne gå utover å skrive nøkkelord eller spørre stemmespørsmål-de kan peke kameraet, ta et bilde og starte en frem og tilbake med søkemotoren. Funksjonen tolker hele scenen: et rotete skrivebord kan gi produktanbefalinger, tips om arbeidsområde organisasjon eller lenker til artikler basert på objektene den identifiserer.

Funksjonen bringer Google Search, Google Lens og Gemini sammen i ett produkt. Men under den metaforen er en virkelig teknisk evolusjon. Fan-out-spørringsmetoden skiller seg fra eldre visuelle søkeverktøy, som ofte ga direkte bildematcher uten lagvis resonnement. AI-modus legger til syntese og oppfølging-Qualities Sentral i stor språkmodellatferd.

I tillegg til visuell analyse, støtter systemet taleinngang på mobil og lar brukere avgrense spørsmålene sine gjennom en dedikert oppfølging av tekstboks. fra intern test for å offentliggjøre

I motsetning til AI-oversikter, er AI-modus en mer interaktiv opplevelse. Det presenterer ikke bare et AI-generert utdrag-det inviterer brukerne til å fortsette søket gjennom samtale, visuals eller oppfølgingsspørsmål.

Google har uttalt at AI-modus ikke er en erstatning for tradisjonelt søk, men snarere et supplement for mer komplekse, resonnerende-intensive oppgaver. Imidlertid er det klart at med denne utvidelsen styrer selskapet brukere mot en annen type søkeinteraksjon.

Publisher-tilbakeslag og konkurransepress

Ikke alle omfavner Googles visjon for AI-drevet søk. Utgivere har uttrykt bekymring for at AI-genererte svar fortrenger tradisjonelle koblingsbaserte resultater, og kutter i synligheten og annonseinntektene. I følge Bloomberg RECEPER-ene til å se på TRUSTRE TREALT TOPPE TOPPE TRUTT TOPPE. Sider.

Mange mindre utgivere sitter igjen uten reelt valg: å blokkere Googles roboter for å unngå innholdsskraping kan føre til skarpe tap i søkesynlighet. De som forblir indeksert finner ofte innholdet som ble brukt i AI-genererte svar med lite trafikk til gjengjeld.

Bakreftet nådde et nytt nivå tidligere denne måneden da Chegg anla søksmål mot Google, og påsto at selskapets AI-systemer brukte utdanningsmateriellet uten samtykke. Online-Learning Chegg hevder at Google skrapte sitt proprietære innhold og omformulerte det ved hjelp av AI i søkesammendrag. Google har nektet forseelse.

Reklame-og inntektsutfordringer

Utvidelsen av AI-modus reiser også spørsmål om Googles annonsevirksomhet. Selskapet har allerede begynt å plassere annonser i AI-generert innhold i oversikter, som bekreftet av en Winbuzzer-rapport i mai 2024. Det er sannsynlig at en lignende inntektsmodell vil bli utvidet til AI-modus.

Men annonseplassering i samtale AI-resultater gir en ny utfordring. I motsetning til tradisjonelle søkeresultater, der betalte lenker vises øverst eller i en utpekt seksjon, genererer AI-modus integrerte svar som er vanskeligere å avbryte annonser uten å undergrave brukertillit. Strukturen i responsen er flatere og mer syntetisk, noe som gjør kommersielle innlegg mer subtile-og mer kontroversielle.

For Google, som er veldig avhengig av annonseringsinntekter fra søkeproduktet, er det kritisk. Hvis brukere er mer avhengige av AI-genererte svar og mindre på tradisjonelle oppføringer, kan det hende at Google må overprøve hvordan det innebærer sponset innhold i disse opplevelsene.

Google-firkanter med chatgpt og perplexity

Googles AI-modusoppdatering kommer AMID-intensiverende fra A-Ni-Ni-Ni-Ni-Native. Openai har stadig utvidet Chatgpts søkefunksjoner med live web-tilgang, slik at brukerne kan stille spørsmål om naturlige språk og motta oppdaterte svar med sitasjoner. I mellomtiden promoterer Perplexity AI sitt dype forskningsverktøy, som samler sanntidsdata fra flere kilder og overflater informasjon i et sitasjonsstøttet format.

Googles motpunch er den siste Gemini 2.5 Pro som ser og tolker at vi snart ikke er noe. Ettersom konkurrenter sikter mot åpenhet og presisjon i AI-assistert søk, satser Google at Geminis kontekstforståelse og integrasjon med visuelle verktøy vil holde det foran.

Fortsatt er reguleringsmiljøet strammes. U.S. Department of Justice har foreslått rettsmidler som kan føre til strukturelle endringer ved Google, inkludert å dele opp deler av søket og nettleserdriften. DOJ har hevdet at Googles kontroll over søkeøkosystemet og dets integrering av AI-verktøy kan gi det en urettferdig fordel i forhold til konkurrenter og innholdsskapere.

Som Google, Openai og fremvoksende konkurrenter som Openai og Perplexity hver foredler sine tilnærminger, er fremtiden for å være mer interaktiv, mer visuell og mer.

Categories: IT Info