Meta está empurrando atualizações de software para sua linha de óculos inteligentes Ray-Ban, disponibilizando o recurso de tradução de idiomas ao vivo anteriormente testado em beta para todos os proprietários em todo o mundo. A atualização também marca o início de um lançamento mais amplo para os recursos multimodais de IA dos óculos, que permitem aos usuários fazer perguntas sobre o que estão vendo através da câmera embutida. Juntamente com essas atualizações funcionais, a Meta introduziu novos estilos de quadros e anunciou planos para levar os óculos para mais mercados. 

Os óculos, equipados com Para captura de áudio espacial, visam misturar a estética padrão dos óculos com recursos conectados. Adicionando às opções, a Meta introduziu o quadro Skyler, A Disponível Em preto cinzento ou calcário brilhante, com várias opções de lente, descritas como adequadas para rostos menores. Expandindo ainda mais seu alcance, a Meta pretende trazer os óculos para o México, a Índia e os Emirados Árabes Unidos em breve. Usuários

Anteriormente limitado a um programa de acesso antecipado iniciado em dezembro de 2024, o recurso de tradução ao vivo já está disponível em todo o mundo. Os usuários podem iniciar a tradução em tempo real entre inglês, espanhol, francês e italiano. Meta especificou que os pacotes de idiomas devem ser baixados com antecedência para que o recurso funcione sem uma conexão Wi-Fi ou celular, um benefício para os viajantes. “Veja e pergunte”Capacidade, onde os óculos usam o feed da câmera para entender o contexto visual.

Os usuários podem fazer perguntas sobre objetos ou cenas em sua visão, recebendo respostas de áudio. A Meta sugere casos de uso, como obter idéias de receitas com base em ingredientes vistos, identificando plantas ou navegação em lugares desconhecidos. A IA foi projetada para lidar com perguntas de acompanhamento sem precisar da frase de esteira repetidamente, mantendo o fluxo de conversação. Meta planos para a IA oferecer sugestões proativas com base no ambiente do usuário. Target=”_ Blank”> vários países da UE (Alemanha, Áustria, Bélgica, Dinamarca, Noruega, Suécia, Finlândia), com o componente visual da IA ​​ativando lá a partir da próxima semana. Outras atualizações incluem acesso expandido a aplicativos de música integrados como Spotify e Apple Music (para usuários de inglês) e o suporte futuro para lidar com mensagens e chamadas diretas do Instagram. Uma demonstração de outubro de 2024 destacou como os óculos poderiam ser usados ​​com ferramentas externas de reconhecimento facial para identificação, provocando debate sobre riscos de vigilância. À medida que esses recursos visuais da IA ​​se tornam mais amplamente disponíveis, o equilíbrio entre utilidade e salvaguarda a privacidade do espectador continua sendo uma consideração importante para os wearables equipados com câmera. Essa tensão inerente em wearables baseada em câmera fornece uma abertura para os concorrentes. O co-fundador da Solos, Kenneth Fan, declarou anteriormente, uma coisa que prometemos cumprir foi permitir que os consumidores tenham controle de sua experiência com a IA e a tecnologia inteligente, principalmente com as opções de privacidade em mente. Outros participantes do mercado incluem o Baidu com seus óculos Xiaodu focados em utilidade e óculos de exibição de projeção sem câmera de Halliday. O Google também está construindo sua plataforma Android XR para fones de ouvido como o próximo dispositivo da Samsung. Target=”_ Blank”> quatro horas de uso misto , com o estojo de carregamento fornecendo energia adicional. Embora as atualizações atuais do software aprimorem o hardware existente, os relatórios sugerem que a Meta já está trabalhando em iterações futuras, possivelmente integrando displays no próximo ano ou lançando um modelo mais avançado como’Hypernova’com controles de gestos. Por enquanto, o foco está em entregar essas novas tradução e a IA experimenta um público mais amplo.

Categories: IT Info