Meta está empurrando atualizações de software para sua linha de óculos inteligentes Ray-Ban, disponibilizando o recurso de tradução de idiomas ao vivo anteriormente testado em beta para todos os proprietários em todo o mundo. A atualização também marca o início de um lançamento mais amplo para os recursos multimodais de IA dos óculos, que permitem aos usuários fazer perguntas sobre o que estão vendo através da câmera embutida. Juntamente com essas atualizações funcionais, a Meta introduziu novos estilos de quadros e anunciou planos para levar os óculos para mais mercados.
Os óculos, equipados com Para captura de áudio espacial, visam misturar a estética padrão dos óculos com recursos conectados. Adicionando às opções, a Meta introduziu o quadro Skyler, A Disponível Em preto cinzento ou calcário brilhante, com várias opções de lente, descritas como adequadas para rostos menores. Expandindo ainda mais seu alcance, a Meta pretende trazer os óculos para o México, a Índia e os Emirados Árabes Unidos em breve. Usuários
Anteriormente limitado a um programa de acesso antecipado iniciado em dezembro de 2024, o recurso de tradução ao vivo já está disponível em todo o mundo. Os usuários podem iniciar a tradução em tempo real entre inglês, espanhol, francês e italiano. Meta especificou que os pacotes de idiomas devem ser baixados com antecedência para que o recurso funcione sem uma conexão Wi-Fi ou celular, um benefício para os viajantes. “Veja e pergunte”Capacidade, onde os óculos usam o feed da câmera para entender o contexto visual.
Os usuários podem fazer perguntas sobre objetos ou cenas em sua visão, recebendo respostas de áudio. A Meta sugere casos de uso, como obter idéias de receitas com base em ingredientes vistos, identificando plantas ou navegação em lugares desconhecidos. A IA foi projetada para lidar com perguntas de acompanhamento sem precisar da frase de esteira repetidamente, mantendo o fluxo de conversação. Meta planos para a IA oferecer sugestões proativas com base no ambiente do usuário. Target=”_ Blank”> vários países da UE (Alemanha, Áustria, Bélgica, Dinamarca, Noruega, Suécia, Finlândia), com o componente visual da IA ativando lá a partir da próxima semana. Outras atualizações incluem acesso expandido a aplicativos de música integrados como Spotify e Apple Music (para usuários de inglês) e o suporte futuro para lidar com mensagens e chamadas diretas do Instagram. Uma demonstração de outubro de 2024 destacou como os óculos poderiam ser usados com ferramentas externas de reconhecimento facial para identificação, provocando debate sobre riscos de vigilância. À medida que esses recursos visuais da IA se tornam mais amplamente disponíveis, o equilíbrio entre utilidade e salvaguarda a privacidade do espectador continua sendo uma consideração importante para os wearables equipados com câmera. Essa tensão inerente em wearables baseada em câmera fornece uma abertura para os concorrentes. O co-fundador da Solos, Kenneth Fan, declarou anteriormente, uma coisa que prometemos cumprir foi permitir que os consumidores tenham controle de sua experiência com a IA e a tecnologia inteligente, principalmente com as opções de privacidade em mente. Outros participantes do mercado incluem o Baidu com seus óculos Xiaodu focados em utilidade e óculos de exibição de projeção sem câmera de Halliday. O Google também está construindo sua plataforma Android XR para fones de ouvido como o próximo dispositivo da Samsung. Target=”_ Blank”> quatro horas de uso misto , com o estojo de carregamento fornecendo energia adicional. Embora as atualizações atuais do software aprimorem o hardware existente, os relatórios sugerem que a Meta já está trabalhando em iterações futuras, possivelmente integrando displays no próximo ano ou lançando um modelo mais avançado como’Hypernova’com controles de gestos. Por enquanto, o foco está em entregar essas novas tradução e a IA experimenta um público mais amplo.