A

Meta anunciou aprimoramentos significativos de IA para seus óculos Smart Smart, de Ray-Ban, no Dia Global da Consciência de Acessibilidade, com o objetivo de impactar profundamente os usuários com cegueira ou baixa visão. A empresa está lançando descrições de áudio ambiental mais detalhadas via Meta AI e expandindo seu serviço”Call a Volunteer”, um recurso desenvolvido com Be My Eyes, para todos os 18 países onde a meta ai está ativa. Essas atualizações foram projetadas para promover uma maior independência e fornecer suporte crucial para a navegação, aproveitando a câmera a bordo dos óculos e a IA para interpretar e articular o mundo visual. A IA oferecendo descrições mais ricas e com reconhecimento de contexto de seus arredores, indo além da identificação básica de objetos para um entendimento mais holístico. Os novos recursos serão implantados nos EUA e no Canadá nas próximas semanas, com um lançamento internacional mais amplo previsto. Essa função, ativada através das configurações de acessibilidade no aplicativo Meta AI, permite que o sistema processe e interprete cenas visuais com maior entendimento contextual. 

Meta ilustrou isso explicando a IA poderia descrever um parque à beira da água, observando detalhes sutis como áreas gramadas”bem bem cuidadas”, oferecendo assim um entendimento mais abrangente crucial para a navegação e a consciência situacional. Ao lançar inicialmente nos EUA e no Canadá, a Meta confirmou que essa capacidade descritiva aprimorada se expandirá para mercados adicionais no futuro. Target=”_ Blank”> Be My Eyes Organization , também está definido para uma grande expansão. Tendo estado em um lançamento limitado desde novembro de 2024, a Meta anunciou que será lançada em todos os 18 países onde a Meta AI é apoiada no final deste mês. O serviço conecta os usuários de óculos inteligentes de meta-baan de Ray a uma extensa rede de mais de oito milhões de voluntários avistados. Isso permite que os voluntários ofereçam orientação verbal para uma variedade de tarefas diárias, desde a leitura dos rótulos dos produtos e a identificação de itens até a navegação em locais desconhecidos. O novo aplicativo Meta AI atua como o sistema de controle central para os óculos e seus recursos de IA, tendo substituído o software de meta visualização anterior. O recurso”Look and Oled”, permitindo que os usuários consultem a IA sobre seu campo visual, é um componente principal agora aprimorado para descrições mais detalhadas. A Meta caracterizou esses desenvolvimentos em andamento como parte de sua estratégia mais ampla para criar um assistente de IA mais intuitivo e personalizado. Enquanto o anúncio atual se concentra em benefícios de acessibilidade, a conversa mais ampla sobre óculos inteligentes aborda cada vez mais as implicações de privacidade. Meta has reportedly explored integrating facial recognition into future iterations of its glasses.

Meta’s CTO, Andrew Bosworth, commented on this complex issue to CNBC , afirmando que”se as pessoas não querem essa tecnologia, não precisamos fornecê-la”. Ele acrescentou que, embora”o produto esteja bem de qualquer maneira”, existem”bons casos de uso por aí, se é algo com o qual as pessoas se sentem confortáveis”. Esses diálogos em andamento destacam os esforços da Meta para equilibrar o avanço tecnológico com a confiança do usuário como suas ofertas de IA vestíveis maduras.

Categories: IT Info