Meta hat erhebliche KI-gesteuerte Verbesserungen für seine Ray-Ban-Meta-Smart-Brille am Global Barrierefreibergut am Tag angekündigt, um Benutzer mit Blindheit oder Sehvermögen tiefgreifend zu beeinflussen. Das Unternehmen setzt detailliertere Umwelt-Audio-Beschreibungen über Meta AI aus und erweitert seinen”Call a Volunteer”-Dienst, eine Funktion, die mit My Eyes entwickelt wurde, auf alle 18 Länder, in denen Meta AI aktiv ist. Diese Updates sind so konzipiert, dass sie eine größere Unabhängigkeit fördern und eine entscheidende Navigationsunterstützung bieten, indem die Brille an Bordkamera und KI nutzt, um die visuelle Welt zu interpretieren und zu artikulieren. an die KI, die reichere, kontextbewusstere Beschreibungen ihrer Umgebung anbietet und über die grundlegende Objektidentifikation hinaus zu einem ganzheitlicheren Verständnis übergeht. Die neuen Funktionen werden in den kommenden Wochen in den USA und in Kanada eingesetzt, wobei ein breiteres internationales Rollout erwartet wird. Diese Funktion, die durch die Zugangseinstellungen in der Meta-AI-App aktiviert wird, ermöglicht es dem System, visuelle Szenen mit einem besseren kontextuellen Verständnis zu verarbeiten und zu interpretieren. 

meta veranschaulicht dies, indem es erklärte, dass die KI einen Wasser am Wasser beschreiben konnte, wobei subtile Details wie „gut gepflegte“ Grasflächen festgestellt wurden und damit ein umfassenderes Verständnis für die Navigation und das Situationsbewusstsein entscheidend sind. Während er anfänglich in den USA und Kanada startete, bestätigte Meta, dass diese verbesserte beschreibende Fähigkeit in Zukunft auf zusätzliche Märkte ausdehnen wird. Organisation ist ebenfalls für eine größere Erweiterung eingestellt. META war seit November 2024 in einem begrenzten Einsatz, gab bekannt, dass es in allen 18 Ländern starten wird, in denen Meta AI später in diesem Monat unterstützt wird. Der Service verbindet Ray-Ban-Meta-Träger mit Smart-Brillen-Trägern mit einem umfangreichen Netzwerk von über acht Millionen sehenden Freiwilligen. Auf diese Weise können Freiwillige verbale Leitlinien für eine Vielzahl von alltäglichen Aufgaben, das Lesen von Produktetiketten und das Identifizieren von Gegenständen bis hin zur Navigation unbekannter Orte anbieten. Die neue Meta-AI-App fungiert als zentrales Steuerungssystem für die Brille und ihre KI-Funktionen, nachdem sie die frühere Meta-View-Software ersetzt hat. Die Funktion „Look and Ask“, mit der Benutzer die KI über ihr Gesichtsfeld abfragen können, ist eine Kernkomponente, die jetzt für detailliertere Beschreibungen verbessert wird. Meta hat diese laufenden Entwicklungen als Teil seiner breiteren Strategie für die Schaffung eines intuitiveren und personalisierten KI-Assistenten charakterisiert. Während sich die aktuelle Ankündigung auf den Vorteil der Zugänglichkeit konzentriert, berührt das breitere Gespräch über intelligente Brillen zunehmend die Auswirkungen auf die Privatsphäre. Meta has reportedly explored integrating facial recognition into future iterations of its glasses.

Meta’s CTO, Andrew Bosworth, commented on this complex issue to cnbc , mit der Angabe, dass”wenn die Leute diese Technologie nicht wollen, müssen wir sie nicht liefern”. Er fügte hinzu, dass”das Produkt in beide Richtungen in Ordnung sein wird”, aber”schöne Anwendungsfälle da draußen, wenn es etwas ist, mit dem Menschen sich wohl fühlen”. Diese laufenden Dialoge heben die Bemühungen von Meta hervor, den technologischen Fortschritt mit User Trust in Einklang zu bringen.

Categories: IT Info