Meta ha anunciado mejoras significativas impulsadas por la IA para sus gafas Meta Smart de Ray-Ban en el Día de Conciencia de Accesibilidad Global, con el objetivo de afectar profundamente a los usuarios con ceguera o baja visión. La compañía está implementando descripciones de audio ambientales más detalladas a través de Meta AI y expandiendo su servicio de”llamar voluntario”, una característica desarrollada con Be My Eyes, para los 18 países donde Meta AI está activa. Estas actualizaciones están diseñadas para fomentar una mayor independencia y proporcionar un soporte de navegación crucial al aprovechar la cámara a bordo de las gafas y la IA para interpretar y articular el mundo visual.
para las personas que usan las gafas, a la oferta de IA que ofrece descripciones más ricas y conscientes del contexto de su entorno, yendo más allá de la identificación básica de los objetos a una comprensión más holística. Las nuevas características se desplegarán en los EE. UU. Y Canadá en las próximas semanas, con un despliegue internacional más amplio anticipado.
mejoró la comprensión visual a través de AI
una piedra angular de la actualización de accesibilidad es la capacidad mejorada de Meta Ai para proporcionar respuestas detalladas cuando los usuarios preguntan sobre su entorno. Esta función, activada a través de la configuración de accesibilidad en la aplicación Meta AI, permite al sistema procesar e interpretar escenas visuales con una mayor comprensión contextual.
meta ilustró esto al explicar que la IA podría describir un parque junto al agua, señalando detalles sutiles como áreas cubiertas de hierba”bien cuidadas”, ofreciendo así una comprensión más completa de la navegación y la conciencia situacional. Mientras se lanzará inicialmente en los EE. UU. Y Canadá, Meta confirmó que esta capacidad descriptiva mejorada se expandirá a mercados adicionales en el futuro.
‘‘ llamar a un voluntario”expande su alcance global
El”llamado voluntario”, una colaboración significativa con el Be My Eyes Organization , también está configurado para una expansión importante. Habiendo estado en un despliegue limitado desde noviembre de 2024, Meta anunció que se lanzará en los 18 países donde Meta AI recibe apoyo a finales de este mes. El servicio conecta a los usuarios de gafas Meta Smart de Ray-Ban a una extensa red de más de ocho millones de voluntarios avistados.
mediante el uso de un comando de voz simple, como pedirle a Meta que”sea mis ojos”, los usuarios pueden iniciar una alimentación de video en vivo desde la cámara de sus gafas. Esto permite a los voluntarios ofrecer orientación verbal para una variedad de tareas cotidianas, desde leer etiquetas de productos e identificar elementos hasta navegar en ubicaciones desconocidas.
construyendo sobre una evolución del ecosistema de IA
Las nuevas herramientas de accesibilidad están integradas en la plataforma de AI continuamente avanzada de la AI y la función de la reducción de los rayos de los rayos de los rayos. La nueva aplicación Meta AI actúa como el sistema de control central para las gafas y sus características de IA, después de haber reemplazado el software Meta View anterior.
Capacidades de IA fundamentales, como la disponibilidad global de la traducción de idiomas en vivo y la IA visual de”apartar”visualizó el camino para estas funciones de asistencia más especializadas. La característica de”apartar y pedir”, que permite a los usuarios consultar la IA sobre su campo visual, es un componente central ahora mejorado para descripciones más detalladas. Meta ha caracterizado estos desarrollos en curso como parte de su estrategia más amplia hacia la creación de un asistente de IA más intuitivo y personalizado.
equilibrando la innovación con consideraciones éticas
a medida que Meta continúa innovando en el dominio de las gafas inteligentes, la compañía necesita abordar cuestiones éticas que rodean una tecnología tan potente. Si bien el anuncio actual se centra en los beneficios de accesibilidad, la conversación más amplia sobre las gafas inteligentes toca cada vez más las implicaciones de la privacidad.
Una demostración de los estudiantes de Harvard, por ejemplo, mostró cómo las gafas inteligentes podrían combinarse con herramientas públicas de reconocimiento facial. Según los informes, Meta ha explorado la integración de el reconocimiento facial en futuras iteraciones de sus anteojos.
El CTO de Meta, Andrew Bosworth, comentó este complejo tema a CNBC , afirmando que”si las personas no quieren esta tecnología, no tenemos que suministrarla”. Agregó que si bien”el producto va a estar bien de cualquier manera”, hay”Casos de uso agradables por ahí, si es algo con lo que la gente se siente cómoda”. Estos diálogos en curso destacan los esfuerzos de Meta para equilibrar el avance tecnológico con el fideicomiso de usuarios a medida que sus ofertas de IA portátiles maduran.