Apple zasadniczo odbudowuje asystenta głosowego Siri za pomocą architektury opartej wyłącznie na dużych modelach językowych (LLM). Ten główny strategiczny obrotek jest zgodny z znaczącymi wewnętrznymi wyzwaniami. Według Bloomberg

Decyzja o odtworzeniu Siri wynika z kilku głęboko zakorzenionych problemów, w tym późnego wpisu do generatywnego pola AI. Niektórzy liderzy Apple, jak szef oprogramowania Craig Federighi, podobno wahali się przed dużymi inwestycjami AI bez wyraźnych wyników produktów. Połączenie nowej sztucznej inteligencji z istniejącą, starzejącą się infrastrukturą Siri również okazało się trudne; Pracownik Apple poinformował Bloomberga, że ​​naprawienie jednego problemu często spowodowało trzy kolejne. Ponadto szef AI Apple, John Giannandrea, podobno nie docenił popytu na chatboty AI i nie agresywnie dążył do niezbędnego finansowania ani nie postrzegał konkurentów jako bezpośredniego zagrożenia. Obietnice marketingowe wyprzedzały również rozwój, co prowadzi do opóźnień przewidywanych funkcji.

W związku z tym zespół AI z Zurychu Apple opracowuje nową architekturę Siri. Mark Gurman z Bloombergs poinformował, że ten nowy system zostanie zbudowany na silniku opartym na LLM, mającym na celu uczynienie asystenta bardziej widocznego rozmowy i lepszej w syntezowaniu informacji. To strategiczne przekierowanie zbiega się z podobno Johnem Giannandreą z Siri i innych ról rozwoju produktu wiosną 2025 r. Niektórzy dyrektorzy Apple omawiali go na drodze do przejścia na emeryturę, choć Gurman zauważył, że Giannandrea zamierza zostać, mówiąc „zwolniona Siri jest teraz czyjąś problemem”.”

A Strong> Mis-Mis-ai ai Misi-Miss

początkowe plany w celu integracji OpenAi do Siri, pierwszego z IOS 18 w Autoumn 2024. Odponowanie. Zeszłego lata stało się oczywiste, że te kluczowe ulepszenia Siri prawdopodobnie zostaną opóźnione do wiosny 2025 r., Potencjalnie przybywając z iOS 18.4. Następnie, do marca 2025 r., Apple oficjalnie potwierdziło te wyzwania. Rzecznik Apple przyznał: „Zajmie nas to dłużej, niż myśleliśmy, że dostarczamy te funkcje, i spodziewamy się, że w nadchodzącym roku wprowadzimy je w nadchodzącym roku”. Wewnętrzne testy iOS 18.4 na początku 2025 r. Znalazły kluczowe cechy niefunkcjonalne, a dema rzekomo korzysta z wcześniej nagranych filmów, co prowadzi do nieokreślonego odroczenia.

Poza timelines, inicjatywy AI Apple’a napotkały znaczącą krytykę. Wyciekłe oceny wewnętrzne z października 2024 r. Wskazały, że dokładność Siri była znacznie niższa niż Chatgpt Openai. Sama Intelligence Apple stanęła przed kontrolą rozpowszechniania fałszywych nagłówków wiadomości w iOS.

Dodając do problemów, Apple musiało również zgodzić się na ugodę o wartości 95 milionów dolarów dotyczących zarzutów, że Siri niewłaściwie zarejestrowała rozmowy użytkowników. Funkcjonalne usterki nękały również asystentów wzajemnych w zależności od inteligencji Apple.

Jeden znaczący przykład wystąpił w grudniu 2024 r., Kiedy proaktywne AI Siri błędnie stworzyło rezerwacje Phantom Restaurant dla użytkowników, którzy przeglądali tylko strategię Apple. LLMS; To fundamentalna rekonstrukcja Siri. Firma eksploruje za pomocą przetwarzania na urządzeniu i prywatności zróżnicowanej w celu zwiększenia danych szkoleniowych AI. Ta metoda obejmuje porównywanie danych syntetycznych z anonimowymi wzorcami językowymi z e-maili użytkowników, a jednocześnie zachowując zobowiązania Apple dotyczące prywatności.

Mark Gurman informuje również, że Apple rozważa nową linię LLM-SIRI na dostęp i syntetyzację danych z różnych źródeł internetowych, podobne do

Gurman Bloomberga mówi, że Apple zamierza sprzedawać Siri od osobno od inteligencji Apple, być może w celu ochrony szerszej marki AI przed staranną reputacją Siri. W przypadku mieszkańców Unii Europejskiej Apple opracowuje również funkcję, aby umożliwić całkowitą wymianę Siri asystentami głosowymi stron trzecich.

Ten rozległy remont odbywa się, gdy konkurenci Apple umacniają swoje stanowiska w przestrzeni asystenta AI. Gemini na żywo Google już uruchomione w sierpniu 2024 r. I od tego czasu jest głęboko zintegrowane z Androidem i całym ekosystemem Google, zastępując Google Assistant. W maju Google uruchomiło Gemini Live dla konta w przestrzeni roboczej, wprowadzając interaktywne rozmowy głosowe, udostępnianie ekranu i integrację kamer z asystentem AI.

Prowadzenie prywatności i realiów rynkowych

Amazon, cierpiąc z podobnych opaść z jego „projektem Banyan” AI dla jego asystenta Aleksa, rozwinienia dzięki temu, dzięki do A. za korzystanie z Claude AI. Firma ostatecznie wprowadziła bardziej wyrafinowaną Alexa+ na początku 2025 r., Która oferuje pamięć konwersacyjną i automatyzację w czasie rzeczywistym.

Długoletni strategia Apple polegająca na priorytecie przetwarzania na urządzeniach dla prywatności użytkowników, kluczowego wyróżnika, wydaje się być ograniczeniem trwającego przeglądu Siri. Takie podejście może ograniczyć zdolność Siri do uczenia się z rozległych zestawów danych, które napędzają systemy AI oparte na chmurze, stanowią znaczną przeszkodę, ponieważ Apple stara się przekształcić swojego kultowego asystenta w naprawdę inteligentne i konkurencyjne narzędzie. Ponieważ Siri News są obecnie głównie złe, Gurman sugeruje, że ulepszenia Siri raczej nie będą głównym celem na WWDC 2025, a Apple spodziewało się skoncentrować się na iOS 19.