A Meta está abrindo seus óculos inteligentes de IA para desenvolvedores de terceiros, anunciando um novo’kit de ferramentas de acesso a dispositivos de wearables’que permitirá que os aplicativos móveis tocem as câmeras, os microfones e os sensores de que o WELLT e o WENDAINCTENSENCILENTE, em uma etapa, a tecnologia de meta-meta. Permita que os desenvolvedores criem experiências com o ponto de vista e viva-de-vista. Isso pode transformar aplicativos para transmissão ao vivo, acessibilidade e turismo. href=”https://developers.meta.com/blog/introduces-teta-wearables-device-access-toolkit/”Target=”_ Blank”> anúncio Seguindo o lançamento do Wearables do meta-exibição da META ENCIPADO A RAY-BAN MOSTER Maior em sua conferência, sublinhando> Plataforma: O META WARELABLES Disposition Access Toolkit
O recém-revelado’Meta Wearables Disposited Access Toolkit’foi projetado para fornecer aos desenvolvedores acesso direto e programático a um conjunto de sensores de dispositivo. href=”https://developers.meta.com/blog/introduCing-seta-wearables-device-access-toolkit/”Target=”_ Blank”> Anúncio oficial , meta declarado que o objetivo é o que opere o que o Open é o número de desenvolvedores e a alavancagem e o meta do que o meta. Os desenvolvedores para estender seus aplicativos móveis existentes para o mundo físico.
Meta está incentivando a criação de experiências distintas de ponto de vista (POV) usando a câmera, facilitando a recuperação de informações perfeitas e sem mãos e, finalmente, ampliando os capacidades dos aplicativos móveis. Embora os desenvolvedores possam explorar a câmera e o microfone para construir e testar protótipos, o acesso à IA integrada da Meta e seus sistemas de comando de voz integrados ainda não está incluída. Na empresa, ele observou explicitamente que esta é uma”área-chave que estamos explorando para atualizações futuras”, sinalizando um lançamento cauteloso e faseado com base no feedback da comunidade.
O lançamento está começando com uma prévia do desenvolvedor projetada para exploração e desenvolvimento precoce. Os desenvolvedores podem agora participe de uma lista de espera para a visualização, que deve ser lançada para o mais tarde em 2025. não é esperado até 2026. Meta planeja usar a fase de visualização estendida para “teste de forma responsável, aprenda e refine” A ferramenta em uma configuração controlada antes de uma liberação
Para demonstrar o potencial da plataforma, a Meta já colaborou com vários parceiros iniciais. Esses protótipos oferecem um vislumbre convincente dos tipos de experiências sem mãos que o kit de ferramentas pode desbloquear em vários setores.
Outros parceiros incluem a Disney Imagineering, que está explorando como os óculos podem
Os consultores de direitos digitais pediram cautela. Amanda Manyame afirmou: “Os formuladores de políticas precisam ver os danos que podem ser causados pela IA porque não entendem completamente por que você precisa de segurança no nível do projeto.” Meta CTO Andrew Bosworth abordou anteriormente essas preocupações, afirmando que a empresa será guiada pelos níveis de conforto do usuário. Ele comentou:”Se as pessoas não querem essa tecnologia, não precisamos fornecê-la. O produto ficará bem de qualquer maneira”.