A Meta está abrindo seus óculos inteligentes de IA para desenvolvedores de terceiros, anunciando um novo’kit de ferramentas de acesso a dispositivos de wearables’que permitirá que os aplicativos móveis tocem as câmeras, os microfones e os sensores de que o WELLT e o WENDAINCTENSENCILENTE, em uma etapa, a tecnologia de meta-meta. Permita que os desenvolvedores criem experiências com o ponto de vista e viva-de-vista. Isso pode transformar aplicativos para transmissão ao vivo, acessibilidade e turismo. href=”https://developers.meta.com/blog/introduces-teta-wearables-device-access-toolkit/”Target=”_ Blank”> anúncio Seguindo o lançamento do Wearables do meta-exibição da META ENCIPADO A RAY-BAN MOSTER Maior em sua conferência, sublinhando> Plataforma: O META WARELABLES Disposition Access Toolkit

O recém-revelado’Meta Wearables Disposited Access Toolkit’foi projetado para fornecer aos desenvolvedores acesso direto e programático a um conjunto de sensores de dispositivo. href=”https://developers.meta.com/blog/introduCing-seta-wearables-device-access-toolkit/”Target=”_ Blank”> Anúncio oficial , meta declarado que o objetivo é o que opere o que o Open é o número de desenvolvedores e a alavancagem e o meta do que o meta. Os desenvolvedores para estender seus aplicativos móveis existentes para o mundo físico.

Meta está incentivando a criação de experiências distintas de ponto de vista (POV) usando a câmera, facilitando a recuperação de informações perfeitas e sem mãos e, finalmente, ampliando os capacidades dos aplicativos móveis. Embora os desenvolvedores possam explorar a câmera e o microfone para construir e testar protótipos, o acesso à IA integrada da Meta e seus sistemas de comando de voz integrados ainda não está incluída. Na empresa, ele observou explicitamente que esta é uma”área-chave que estamos explorando para atualizações futuras”, sinalizando um lançamento cauteloso e faseado com base no feedback da comunidade.

O lançamento está começando com uma prévia do desenvolvedor projetada para exploração e desenvolvimento precoce. Os desenvolvedores podem agora participe de uma lista de espera para a visualização, que deve ser lançada para o mais tarde em 2025. não é esperado até 2026. Meta planeja usar a fase de visualização estendida para “teste de forma responsável, aprenda e refine” A ferramenta em uma configuração controlada antes de uma liberação

Para demonstrar o potencial da plataforma, a Meta já colaborou com vários parceiros iniciais. Esses protótipos oferecem um vislumbre convincente dos tipos de experiências sem mãos que o kit de ferramentas pode desbloquear em vários setores. 

Outros parceiros incluem a Disney Imagineering, que está explorando como os óculos podem

Os consultores de direitos digitais pediram cautela. Amanda Manyame afirmou: “Os formuladores de políticas precisam ver os danos que podem ser causados ​​pela IA porque não entendem completamente por que você precisa de segurança no nível do projeto.”

Meta CTO Andrew Bosworth abordou anteriormente essas preocupações, afirmando que a empresa será guiada pelos níveis de conforto do usuário. Ele comentou:”Se as pessoas não querem essa tecnologia, não precisamos fornecê-la. O produto ficará bem de qualquer maneira”.