A Apple está fundamentalmente reconstruindo seu assistente de voz da Siri usando uma arquitetura baseada inteiramente em grandes modelos de idiomas (LLMS). Esse grande pivô estratégico segue desafios internos significativos. Os recursos iniciais da”Inteligência da Apple”da Apple vacilaram, de acordo com um Bloomberg

A Pattern of Delays and AI Missteps

Apple’s journey toward an enhanced Siri has been marked by persistent delays and public setbacks, illustrating A luta da empresa para acompanhar o ritmo da rápida evolução da IA. Relatórios surgiram já em novembro de 2024 de que um”LLM Siri”totalmente renovado pode não ser lançado até 2026. Isso ocorreu apesar da revelação da Apple de”inteligência da Apple”e das atualizações iniciais do SIRI no WWDC 2024, que alguns observadores de que o INFAIM de IMP do INFAT IMPAT IMPT IMPAT IMPT IMEM OURMIA, INFERATE IMPORTA, INFORMA, INFORMA, INFORME, que se destacaram em Intration, que se destacaram, com os primeiros a se integrarem com o INFAIR em INFATION com o INFATION INEMAI com o INFATION, o INFAIM de INFAIMA, em IF. adiamentos. No verão passado, ficou evidente que essas melhorias importantes da Siri provavelmente seriam adiadas até a primavera de 2025, chegando potencialmente com o iOS 18.4. Então, em março de 2025, a Apple reconheceu oficialmente esses desafios. Um porta-voz da Apple confessou:”Isso nos levará mais tempo do que pensamos em entregar esses recursos, e prevemos lançá-los no próximo ano”. Os testes internos do iOS 18.4 no início de 2025 encontraram os principais recursos não funcionais, com demos supostamente usando vídeos pré-gravados, levando a um adiamento indefinido. As avaliações internas vazadas de outubro de 2024 indicaram que a precisão da Siri foi consideravelmente menor que o ChatGPT da Openai. A própria inteligência da Apple enfrentou um escrutínio para disseminar as manchetes de notícias falsas no iOS. Falhas funcionais também atormentaram os assistentes integrantes com a inteligência da Apple.

Um exemplo notável ocorreu em dezembro de 2024, quando a IA proativa da Siri criou por engano as reservas fantasmas criadas por usuários que haviam apenas uma pressão de operação. É uma reconstrução fundamental da Siri. A empresa está explorando usando o processamento no dispositivo e a privacidade diferencial para aprimorar os dados de treinamento da IA. Esse método envolve a comparação de dados sintéticos com os padrões de linguagem anonimizados dos e-mails do usuário, mantendo os compromissos de privacidade da Apple. seu próprio assistente de voz da AI. A Apple se envolveu em discussões de parceria com a perplexidade das funcionalidades da pesquisa de IA no navegador da Web Safari. Para os residentes da União Europeia, a Apple também está desenvolvendo um recurso para permitir a substituição completa do Siri por assistentes de voz de terceiros. O Gemini Live do Google já foi lançado em agosto de 2024 e, desde então, está sendo profundamente integrado no ecossistema Android e do Google, substituindo o Google Assistant. Em maio, o Google lançou Gemini Live for Workspace Contas, introduzindo conversas de voz interativas, compartilhamento de tela e integração de câmera ao seu assistente de IA.

Navegando privacidade e realidades de mercado

Amazon, sofrendo atrasos semelhantes, com o seu”Projeto Banyan”Ai Overhaul. Claude AI. A empresa finalmente introduziu um Alexa+ mais sofisticado no início de 2025, que oferece memória de conversação e automação em tempo real. Essa abordagem pode limitar a capacidade da Siri de aprender com os extensos conjuntos de dados que alimentam os sistemas de IA baseados em nuvem, apresentando um obstáculo significativo à medida que a Apple se esforça para transformar seu assistente icônico em uma ferramenta verdadeiramente inteligente e competitiva. Como atualmente as notícias da Siri são principalmente ruins, Gurman sugere que é improvável que as atualizações da Siri sejam um foco central no WWDC 2025, com a Apple que se concentre no iOS 19.