Google wdraża teraz kluczową aktualizację dla swojego asystenta AI na żywo w Androida i iOS, umożliwiając dostęp do danych osobowych w kalendarzu Google, zadania i map. Po raz pierwszy zaprezentowana na Google we/wy w maju 2025 r. Integracja ta przekształca AI z ogólnego źródła informacji w prawdziwego osobistego asystenta.
Cel był jasny: ewoluować AI z prostego konwersacjonistki w głęboko zintegrowanego asystenta osobistego. Po ogłoszeniu wdrożenie kontynuowało godną uwagi ostrożność. Bardzo ograniczona wersja rozpoczęła się dla niektórych użytkowników pod koniec czerwca, ale funkcja ta pozostała nieuchwytna dla zdecydowanej większości.
jej niedobór został wyróżniony w połowie lipca, kiedy Google ogłosił jego gemini upuść”Jednak integracja aplikacji wciąż nie była szeroko dostępna. To powolne, metodyczne tempo sugeruje staranną strategię, prawdopodobnie koncentrującą się na testowaniu złożonych połączeń zaplecza i elementów interfejsu użytkownika przed szerszym uruchomieniem.
, po kilku tygodniach testowania, ten okres cierpliwości. Na początku sierpnia funkcjonalność zaczęła się powiększać, ostatecznie dostarczając wizję wyrażoną kilka miesięcy temu. Wdrożenie jest kompleksowe, docierając do użytkowników zarówno w kanałach stabilnych, jak i beta aplikacji Google dla Androida, a niektórzy potwierdzają jej pojawienie się na Androida 15 i 16. Co najważniejsze, aktualizacja nie ogranicza się do własnego systemu operacyjnego Google, ponieważ przybywa również do aplikacji GEMINI na iOS, this aOS, this this aOS, niniejszy, this this aOS, this this aOS. Aktualizacja zasadniczo przekształca Gemini na żywo z pasywnego źródła informacji w aktywnego, praktycznego asystenta osobistego. Zmiana jest głęboka: tam, gdzie AI może wcześniej uzyskać dostęp do ogólnej wiedzy światowej, może teraz bezpośrednio manipulować danymi osobowymi użytkownika.
Użytkownicy mogą ustnie prosić Gemini o tworzenie nowych zdarzeń kalendarzowych, dodać elementy do listy rzeczy do zrobienia w zadaniach Google lub zapisać informacje w Google Keep, z AI wykonując te polecenia w czasie rzeczywistym. Funkcjonalność, która działa poprzez rozszerzenia specyficzne dla aplikacji, rozciąga się również na pobieranie informacji.
Można zapytać o szczegóły na temat lokalizacji z Map Google lub zapytać o nadchodzące przypomnienia. System jest przeznaczony do naturalnej interakcji; Użytkownicy mogą albo nazwać konkretną aplikację lub użyć bardziej ogólnego frazowania, na przykład: „Czy mam dziś jakieś przypomnienia?” Aby uzyskać odpowiedź.
Na urządzeniach Samsung integracja jest dostosowana do dostępu do natywnego kalendarza, notatek i aplikacji przypominających. Aby informować użytkownika, interfejs zapewnia wyraźne wizualne informacje zwrotne podczas tych interakcji. Po dostępie aplikacji pojawia się komunikat z układem lub tostiem na ekranie, wyświetlając nazwę aplikacji i ikonę z obracającym się wskaźnikiem ładowania. W przypadku niektórych działań, takich jak tworzenie listy, oferowany jest pomocny przycisk „cofnij się”, dzięki czemu doświadczenie jest bardziej wybaczające.
Ten projekt obsługuje stwierdzony cel Google, aby uczynić asystenta bardziej intuicyjnego i mniej jak tradycyjny asystent głosowy. Być może, co najważniejsze, ta integracja aplikacji działa w porozumieniu z istniejącymi możliwościami multimodalnymi Gemini.
Użytkownik może teraz łączyć wizualne wejście z poleceniami aplikacji. Na przykład możesz wskazać aparat na ulotkę na wydarzenie i poprosić Gemini o utworzenie wpisu kalendarza w oparciu o datę, którą widzi. Ta synergia, która rozciąga się od tekstowej wersji Gemini na płynne, konwersacyjne środowisko na żywo, jest tym, co naprawdę podnosi asystenta do silniejszego i kontekstowego narzędzia. To jest krytyczna strategia dla wielu multimodalnych AI. Możliwości opracowują fundamentalne technologie, które Google integruje się od miesięcy, takie jak filmy wideo na żywo i analiza ekranu po raz pierwszy zapowiedziane na stronie MWC 2025.
Rozszerzenie następuje również wprowadzenie Gemini Live do użytkowników przedsiębiorstw. W maju asystent został wprowadzony na konta Google Workspace, choć z określonymi zasadami obsługi danych. W przypadku tych użytkowników Google zauważa: „Dla użytkowników z pracą lub szkolnym konto Google… aktywność aplikacji GEMINI jest włączona i nie można jej wyłączyć i nie możesz usunąć aktywności aplikacji Gemini.”
Podkreśla to kluczowe rozróżnienie w podejściu Google dla danych konsumenckich w porównaniu z danymi przedsiębiorczości. Firma wcześniej zapewniała, że dla swoich klientów biznesowych „treść przestrzeni roboczej nie jest wykorzystywana do reklam.”
, łącząc swoją podstawową sztuczną inteligencję z najczęściej używanymi aplikacjami wydajności, Google tworzy potężny, lepki ekosystem. Ten ruch pozycjonuje Bliźnięta nie tylko jako chatbot, ale jako centralny system nerwowy dla cyfrowego życia użytkownika, strategię mającą na celu pogłębienie jego integracji z codziennymi przepływami pracy zarówno na Androidzie, jak i iOS.