Meta está impulsando las actualizaciones de software a su línea de gafas Smart de Ray-Ban, lo que hace que la función de traducción de idiomas en vivo probado previamente con beta esté disponible para todos los propietarios a nivel mundial. La actualización también marca el comienzo de un despliegue más amplio para las capacidades de IA multimodal de las gafas, que permiten a los usuarios hacer preguntas sobre lo que están viendo a través de la cámara incorporada. Junto con estas actualizaciones funcionales, Meta introdujo nuevos estilos de cuadro y anunció planes para llevar las gafas a más mercados. 

Las gafas, equipadas con un Para la captura de audio espacial, tienen como objetivo combinar la estética de gafas estándar con características conectadas. Adding to the options, Meta introduced the Skyler frame, a cat-eye style Disponible en gris brillante o negro brillante con varias opciones de lentes, descritas como adecuadas para caras más pequeñas.

Una opción de ajuste de puente bajo para el estilo clásico de Wayfarer ahora también está disponible. Expandiendo aún más su alcance, Meta tiene la intención de llevar las gafas a México, India y los Emiratos Árabes Unidos. Usuarios

Anteriormente limitado a un programa de acceso temprano iniciado en diciembre de 2024, la función de traducción en vivo ahora está disponible en todo el mundo. Los usuarios pueden iniciar la traducción en tiempo real entre inglés, español, francés e italiano.

Meta describe la experiencia: cuando hablas con alguien en uno de esos idiomas, escuchará lo que dicen en tu idioma preferido a través de las gafas en tiempo real, y pueden ver una transcripción traducida de la conversación en tu teléfono.

La activación está manejada a través del comando de voz:”Hey Meta, comienzo en vivo. Meta especificó que los paquetes de idiomas deben descargarse de antemano para que la función funcione sin una conexión Wi-Fi o celular, un beneficio para los viajeros.

ai obtiene ojos: la asistencia visual se despliega

meta también está ampliando el acceso a sus características de”AI”, que se mueve más allá de los participantes del programa de acceso inicial en los EE. UU. En los Estados Unidos, Canadá, y un rollo del Reino Unido, que inicia el núcleo de AI de AI”. La capacidad de”Mira y pregunta”, donde las gafas usan la alimentación de su cámara para comprender el contexto visual.

Los usuarios pueden hacer preguntas sobre objetos o escenas dentro de su vista, recibiendo respuestas de audio. Meta sugiere casos de uso como obtener ideas de recetas basadas en ingredientes vistos, identificar plantas o navegar en lugares desconocidos. La IA está diseñada para manejar preguntas de seguimiento sin necesidad de la frase de estela repetidamente, manteniendo el flujo de conversación. Meta plans for the AI ​​to eventually offer proactive suggestions based on the user’s environment.

The expansion started this week in Varios países de la UE (Alemania, Austria, Bélgica, Dinamarca, Noruega, Suecia, Finlandia), con el componente visual de IA que se activa allí a partir de la próxima semana. Otras actualizaciones incluyen acceso ampliado a aplicaciones de música integradas como Spotify y Apple Music (para usuarios de idiomas ingleses) y el próximo soporte para manejar mensajes y llamadas directas de Instagram.

Preguntas de privacidad persisten en medio de la expansión de características

La confianza en una cámara siempre lista para las funciones en vivo de la cámara en vivo. Una demostración de octubre de 2024 destacó cómo las gafas podrían usarse potencialmente con herramientas de reconocimiento facial externas para la identificación, lo que provocó un debate sobre los riesgos de vigilancia.

mientras que Meta incluye una luz de grabación LED, su efectividad como mecanismo de notificación se ha cuestionado. A medida que estas características visuales de IA se vuelven más ampliamente disponibles, el equilibrio entre la utilidad y la protección de la privacidad del espectador sigue siendo una consideración clave para los wearables equipados con la cámara. Esta tensión inherente en los wearables basados ​​en la cámara proporciona una apertura para los competidores.

Visiones competitivas para gafas inteligentes

Los competidores como los solos enfatizan este punto, ofreciendo anteojos modulares donde se puede eliminar la cámara. El cofundador de Solos, Kenneth Fan, declaró anteriormente, una cosa que prometimos entregar fue permitir que los consumidores tengan el control de su experiencia con la IA y la tecnología inteligente, particularmente con las opciones de privacidad en mente. Otros jugadores del mercado incluyen a Baidu con sus gafas Xiaodu centradas en la utilidad y las gafas de proyección sin cámara Halliday. Google is also building its Android XR platform for headsets like Samsung’s upcoming device.

User feedback suggests the current Ray-Ban Meta glasses offer around Cuatro horas de uso mixto , con el caso de carga que proporciona potencia adicional. Si bien las actualizaciones de software actuales mejoran el hardware existente, los informes sugieren que Meta ya está trabajando en iteraciones futuras, posiblemente integrando pantallas el próximo año o lanzar un modelo más avanzado como”Hypernova”con controles de gestos. Por ahora, el enfoque está en entregar estas nuevas traducciones y experiencias de IA a un público más amplio.

Categories: IT Info