Bij Mobile World Congress (MWC) 2025 heeft Google een grote uitbreiding van zijn Gemini Live AI-assistent aangekondigd, die live video-en op het scherm querymogelijkheden introduceert. Met deze nieuwe functies kunnen gebruikers communiceren met Gemini met behulp van de camerafeed en inhoud op het scherm van hun smartphone, waardoor realtime, multimodale AI-assistentie mogelijk is. Later deze maand markeert een belangrijke stap in Google’s push om AI een kernelement van het Android-ecosysteem te maken. It follows a series of recent enhancements, including deeper research capabilities, memory recall, and an expansion of Gemini AI into Google Workspace.

How the New Features Work

Google’s latest Gemini AI update expands its capabilities by integrating Live Video AI Queries and On-Screen AI Interaction, two features designed to bring real-time intelligence to everyday mobile ervaringen.

Ze kunnen gebruikers interacteren met Gemini in een meer natuurlijke en intuïtieve manier, zonder rely op te rekenen. >Live Video AI Queries

The Live Video AI Queries feature enables users to point their smartphone camera at objects, text, or scenes and ask Gemini questions based on what it sees.

Whether identifying unfamiliar landmarks, solving math problems from a written equation, or providing step-by-step guidance on repairing a household item, Gemini can process the live feed and generate relevant responses.

Live Video AI Queries build on Google’s previous AI-powered image recognition technologies but takes it a step further by making the AI ​​assistant capable of analyzing dynamic, real-time video rather than static images.

[embedded content]

On-Screen AI Interaction

The second feature, On-Screen AI Interactie, stelt Gemini in staat om inhoud op het telefoonscherm van de gebruiker te analyseren en relevante informatie of assistentie te bieden. Dit betekent dat gebruikers Gemini kunnen oproepen tijdens het lezen van een artikel, het bekijken van een document of het doorbladeren van een website om uitleg, samenvattingen of vertalingen te krijgen zonder apps te schakelen.

Een gebruiker die een wetenschappelijk artikel leest, kan Gemini vragen om complexe voorwaarden te vereenvoudigen, terwijl iemand die een contract beoordeelt, een contract van de duidelijke tekst kan aanvragen. Deze naadloze integratie van AI in dagelijkse browsen-en taken van het browsen elimineert de noodzaak om inhoud te kopiëren en te plakken in een afzonderlijke chatbot-interface.

[ingebedde inhoud]

Google’s strategie van Google: breidend Gemini AI buiten text

Google’s nieuwste AI-vooruitgang met zijn bredere strategie naar een volledig gevlekte onderzoek en productiva Tool.

Eerder in februari heeft Google zijn diepe onderzoeksfunctie toegevoegd aan de Gemini Android-app, waarmee Gemini geavanceerde gebruikers in staat stelt gestructureerd onderzoek uit te voeren door meerdere bronnen samen te stellen en te analyseren. Chatbot.

De focus op AI-gedreven mobiele ervaringen op MWC 2025 Plaatsen Google in directe concurrentie met Apple’s aankomende AI-initiatieven voor iOS 18 en OpenAI’s voortdurende duwtje met nieuwe mogelijkheden met nieuwe mogelijkheden in chatgpt, zoals de live video-ondersteuning voor geavanceerde spraakmodus. Mobiele gebruikers.

Naast consumententoepassingen, strekken de AI-mogelijkheden van Google zich uit tot productiviteitstools. Just days before MWC, Gemini AI was integrated into Google Sheets, enabling automatic data analysis and visualization—a move that aligns with Microsoft’s AI-powered Excel Copilot.

From AI Research to Real-Time Interaction: Gemini’s Evolution

Google’s latest AI advancements are the result of months of steady improvements to Gemini’s mogelijkheden. De introductie van Gemini 2.0 Pro en Flash-Lite begin februari bracht aanzienlijke technische verbeteringen op, met name in redenering en geheugen. De modellen ondersteunen nu een contextvenster van twee miljoen takken, waardoor Gemini in één sessie veel meer informatie kan verwerken. De diepgaande onderzoeksfunctie, die gestructureerde multi-source onderzoeken mogelijk maakt, en Gemini’s geheugenrelatherinnering update beide benadrukken de rol van AI verder dan eenvoudige chatbot-interacties.

Door real-time video-en schermanalyse op te nemen, is Google de GAP tussen onderzoeksgerichte AI-tools en dagelijkse gebruikersinteracties. precursor to broader AI-powered device capabilities.

The move suggests an eventual shift toward AI-enhanced augmented reality (AR) applications, where users interact with the world around them through intelligent overlays.

Addressing the Challenges of Real-Time AI

While Google’s latest Gemini features mark an important step in AI’s evolution, real-time AI-interacties brengen nieuwe uitdagingen aan. De mogelijkheid om live video te verwerken, roept bezorgdheid uit over privacy, beveiliging en nauwkeurigheid.

ervoor zorgen dat AI-gegenereerde antwoorden zowel betrouwbaar zijn en vrij van bias blijft een cruciale uitdaging voor Google en zijn concurrenten. Meta’s AI Powered Ray-Ban Smart Glasses vorig jaar stond voor wat terugslag nadat twee Harvard-studenten hebben aangetoond hoe gecombineerd met gezichtsherkenningssoftware, ze snel de persoonlijke gegevens van mensen in realtime kunnen onthullen. 

Categories: IT Info