A

Meta bejelentette a Ray-Ban Meta Smart szemüvegének jelentős AI-vezérelt javulásait a globális akadálymentesség-tudatosság napján, amelynek célja a vakság vagy az alacsony látás mélységes befolyásolása. A vállalat a Meta AI-n keresztül részletesebb környezeti audioleírásokat vezet be, és kibővíti „Hívja az önkéntes” szolgáltatást, amelyet a Be My Eye-vel fejlesztett ki, mind a 18 országban, ahol a Meta AI aktív. Ezeket a frissítéseket úgy tervezték, hogy elősegítsék a nagyobb függetlenséget, és kritikus navigációs támogatást nyújtsanak a szemüveg fedélzeti kamerájának és az AI-nek a vizuális világ értelmezésére és megfogalmazására. Az AI, amely gazdagabb, kontextus tudatosabb leírást kínál a környezetükről, és túlmutat az alapvető tárgyak azonosításán, a holisztikusabb megértésig. Az új funkciók az Egyesült Államokban és Kanadában az elkövetkező hetekben fognak telepíteni, szélesebb nemzetközi bevezetéssel várják el. Ez a funkció, amelyet a Meta AI alkalmazás akadálymentesség-beállításainál aktiválnak, lehetővé teszi a rendszer számára, hogy feldolgozza és értelmezze a vizuális jeleneteket nagyobb kontextuális megértéssel. 

A meta ezt szemlélteti az AI magyarázatával, hogy leírhatja a vízparti parkot, megjegyezve a finom részleteket, mint például a „jól ápolt” füves területek, ezáltal átfogóbb megértést kínálva a navigáció és a helyzet tudatosság szempontjából. Miközben kezdetben az Egyesült Államokban és Kanadában indultak, a Meta megerősítette, hogy ez a továbbfejlesztett leíró képesség a jövőben további piacokra is kiterjed. A szemem szervezete , szintén jelentős bővítésre van beállítva. Miután 2024 novembere óta korlátozott bevezetésben volt, a Meta bejelentette, hogy mind a 18 országban elindul, ahol a Meta AI-t ebben a hónapban később támogatják. A szolgáltatás összekapcsolja a Ray-Ban Meta Smart Glasses viselőit egy kiterjedt több mint nyolc millió látott önkéntes hálózatával. Ez lehetővé teszi az önkéntesek számára, hogy verbális útmutatást nyújtsanak a mindennapi feladatokhoz, a termékcímkék olvasásától és az elemek azonosításától kezdve az ismeretlen helyek navigálásáig. Az új Meta AI alkalmazás a szemüveg és azok AI tulajdonságainak központi vezérlőrendszere, felváltotta a korábbi Meta View szoftvert. A „Look and Aqu” funkció, amely lehetővé teszi a felhasználók számára, hogy az AI-t a látótérükről lekérdezzék, a részletesebb leírásokhoz most továbbfejlesztett alapvető elem. A Meta ezeket a folyamatban lévő fejleményeket az intuitív és személyre szabottabb AI asszisztens létrehozására irányuló szélesebb körű stratégiájának részeként jellemezte. Míg a jelenlegi bejelentési központok az akadálymentesség előnyeire összpontosítanak, az intelligens szemüvegek szélesebb körű beszélgetése egyre inkább érinti az adatvédelmi következményeket. A Meta állítólag feltárta az arcfelismerés integrálását a szemüveg jövőbeli iterációiba. Target=”_ üres”> cnbc , kijelentve, hogy „ha az emberek nem akarják ezt a technológiát, akkor nem kell ezt meg kell adnunk.” Hozzátette, hogy míg „a termék mindkét irányban rendben lesz”, vannak „szép felhasználási esetek odakint, ha ez valami, amiben az emberek kényelmesek”. Ezek a folyamatban lévő párbeszédek rávilágítanak a Meta erőfeszítéseire a technológiai fejlődés és a felhasználói bizalom kiegyensúlyozása érdekében, mivel a hordható AI-kínálat érett.

Categories: IT Info