Meta har meddelat betydande AI-drivna förbättringar för sina Ray-Ban Meta-smarta glasögon på global tillgänglighetsmedvetenhetsdag, som syftar till att påverka användare med blindhet eller låg syn. Företaget rullar ut mer detaljerade miljöljudbeskrivningar via Meta AI och utökar sin”Call A Volunteer”-tjänst, en funktion utvecklad med BE My Eyes, till alla 18 länder där Meta AI är aktiv. These updates are designed to foster greater independence and provide crucial navigational support by leveraging the glasses’ onboard camera and AI to interpret and articulate the visual world.

For individuals using the glasses, this translates to the AI erbjuder rikare, mer kontextmedvetna beskrivningar av deras omgivningar och går utöver grundläggande objektidentifiering till en mer holistisk förståelse. De nya funktionerna kommer att distribuera i USA och Kanada under de kommande veckorna, med en bredare internationell utrullning. Denna funktion, aktiverad genom tillgänglighetsinställningarna i Meta AI-appen, gör det möjligt för systemet att bearbeta och tolka visuella scener med större kontextuell förståelse. 

meta illustrerade detta genom att förklara AI kunde beskriva en vattenpark vid vattnet, notera subtila detaljer som”väl manicured”gräsbevuxna områden, och därmed erbjuda en mer omfattande förståelse av avgörande för navigering och situationell medvetenhet. Meta, som ursprungligen startade i USA och Kanada, bekräftade att denna förbättrade beskrivande kapacitet kommer att expandera till ytterligare marknader i framtiden.

‘Call a Volunteer’utvidgar sin globala räckvidd

“Call a Volunteer”-funktionen, ett betydande samarbete med

Byggnad på ett utvecklande AI-ekosystem

De nya tillgänglighetsverktygen är integrerade i meta kontinuerligt framsteg AI-plattform och Leverany den befintliga funktionen av den befintliga funktionen. Den nya Meta AI-appen fungerar som det centrala styrsystemet för glasögonen och deras AI-funktioner, efter att ha ersatt den tidigare Meta View-programvaran.

Foundational AI-kapacitet, till exempel den globala tillgängligheten av levande språköversättning och”Look and Ask”Visual AI banade vägen för dessa mer specialiserade hjälpande funktioner. Funktionen”Look and Ask”, vilket gör det möjligt för användare att fråga AI om deras synfält, är en kärnkomponent som nu förbättras för mer detaljerade beskrivningar. Meta har karakteriserat dessa pågående utvecklingar som en del av sin bredare strategi för att skapa en mer intuitiv och personlig AI-assistent.

Balansering av innovation med etiska överväganden

som Meta fortsätter att innovera inom det smarta glasögondomänen, företaget behöver för att ta itu med etiska frågor omgivande omgivande. Medan det nuvarande tillkännagivandet fokuserar på tillgänglighetsfördelar, visade den bredare konversationen om smarta glasögon alltmer integritetskonsekvenser.

En demonstration av Harvard-studenter, till exempel, visade hur smarta glasögon potentiellt kan kombineras med offentliga ansiktsigenkänningsverktyg. Meta har enligt uppgift undersökt integrering av ansiktsigenkänning i framtida iterationer av sina glasögon.

meta’s CTO, Andrew Bosworth, kommenterade denna komplexa fråga till cnbc , säger att”om människor inte vill ha den här tekniken, behöver vi inte leverera den.”Han tillade att medan”produkten kommer att bli bra i vilket fall som helst”, det finns”fina användningsfall där ute, om det är något folk är bekväma med.”Dessa pågående dialoger belyser Metas ansträngningar för att balansera teknisk utveckling med användarförtroende eftersom dess bärbara AI-erbjudanden mognar.

Categories: IT Info