Google znacznie rozwija integrację sztucznej inteligencji w swoim pakiecie produktywności, wdrażając Bliźnięta na żywo do Google Workspace. Wprowadza to bardziej dynamiczne i interaktywne wrażenia sztucznej inteligencji, umożliwiając użytkownikom rozmowę z Gemini za pomocą głosu, udostępniania ekranu lub aparatu w kontekście wizualnym i wykorzystanie sztucznej inteligencji do szeregu zadań, od kreatywnej burzy mózgów po praktykę prezentacji. Ten ruch ma na celu osadzenie potężnego asystenta AI bezpośrednio w codzienne działalność firm i instytucji edukacyjnych korzystających z obszaru roboczego.
konwersacyjna sztuczna inteligencja przychodzi do Google Workspace
Podstawowa wartość dla użytkowników przestrzeni roboczej leży w zdolności Gemini Live do przekształcania możliwości Gemini Mobile App w Gemini Mobile App. Według Google, „z gemini na żywo, użytkownicy mogą angażować się w więcej naturalnych, dwu-drogi. Zadać wyjaśniające pytania lub przełączać tematy, podobnie jak ludzka rozmowa “.
Ta ulepszona interaktywność została zaprojektowana do tworzenia interakcji, jak dodał Google, „bardziej intuicyjne i mniej jak tradycyjny asystent głosowy”. Jednak ta głębsza integracja AI przynosi określone protokoły obsługi danych. „Dla użytkowników z konto roboczym lub szkolnym i dostępem do aplikacji Gemini, aktywność aplikacji Gemini jest włączona i nie można jej wyłączyć i nie możesz usunąć aktywności aplikacji Gemini”, mówi Google. Oznacza to, że historie konwersacji są zachowywane przez 18 miesięcy.
Google dodaje, że „dla użytkowników roboczych, którzy mają dostęp do aplikacji Gemini jako dodatkowej usługi, podczas gdy aktywność aplikacji Gemini jest włączona, Google zbiera Twoje aplikacje Gemini i inne informacje, które dostarczasz i opracować produkty Google i usługi i technologie uczenia się maszyn. Debiut konsumencki. Aplikacja Enterprise Gemini na Androidzie i iOS będzie teraz wyposażona w odrębną ikonę przebiegu Live Live.
Narzędzia multimodalne
Gemini Live wyposaża użytkowników przestrzeni roboczej z zestawem narzędzi multimodalnych. Użytkownicy mogą angażować się w szczegółowe dyskusje w celu opracowania strategii marketingowych, przygotowania się do spotkań sprzedaży lub nakreślenie dokumentów badawczych. AI ułatwia także ćwiczenie prezentacji na głos i otrzymywanie informacji zwrotnej.
Znaczącym ulepszeniem jest możliwość zapewnienia kontekstu wizualnego; Użytkownicy mogą aktywować aparat lub udostępniać ekran, aby omówić treść na ekranie lub obiekty fizyczne z Gemini.
Możliwe jest również wzbogacenie rozmów poprzez dodanie określonych obrazów, plików lub filmów z YouTube. Funkcje te, w tym „Astra” i udostępnianie ekranu, są dostępne dla użytkowników przestrzeni roboczej w wieku 18 lat i starszych, co stanowi rozróżnienie od 13-letniego minimum dla osobistych kont Google. Wdrożenie jest rozszerzone, a Google zauważył, że wdrożenie udostępniania ekranu na iOS jest „nieco opóźnione” i „zapewnią jak najszybciej aktualizację wdrożenia iOS”.
Zarządzanie danymi i świadomość użytkowników
zawsze działanie aktywności aplikacji GEMINI aplikacji GEMINI Apps Apps. Administratorzy nie mają osobnej kontroli, aby wyłączyć Gemini na żywo, jeśli główny dostęp do aplikacji Gemini jest włączony dla ich organizacji, jak szczegółowo opisano w Google obsługa dokumentacji .
ta, when celowanie w encing, jest to jest to, że jest to jest to, że jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to jest to on av a jest to jest. Punkt dyskusji w poprzednich integracji AI. Na przykład, kiedy Google wprowadził „Nudges” z napędem AI na Dysku Google, który proaktywnie przesyłałby pliki, pojawiły się obawy dotyczące interakcji AI z prywatnymi danymi, pomimo zapewnień Google, że „treść przestrzeni roboczej nie jest używana do reklamowania.”
Istnieją zarzuty, że Gemini AI miało skanowanie plików Drive Google, bez wynikającej z tego, że Diognoga wokół AI i użytkownika i użytkownika. prywatność.
Strategiczne rozszerzenie sztucznej inteligencji w ekosystemie Google
Wprowadzenie Gemini na żywo w przestrzeni roboczej jest kontynuacją szerszej strategii Google w celu osadzenia swoich modeli Gemini AI w całym ekosystemie produktu. Możliwości przybywających teraz dla użytkowników przestrzeni roboczej, takie jak wideo na żywo i analiza ekranowa, zostały po raz pierwszy podgląd dla subskrybentów Google One AI Premium na Androidzie na Mobile World Congress 2025.
W tym roku w tym roku widział już inne znaczące ulepszenia AI w obszarze roboczym. W marcu Google Sheets otrzymał zaawansowane narzędzia AI do analizy i wizualizacji danych. Funkcjonalność wyszukiwania Gmaila została również zaktualizowana o sztuczną inteligencję w celu lepszego rankingu wyników według znaczenia. Zmiany te opierają się na wcześniejszych integracjach, takich jak generowanie obrazów napędzanych AI w Dokumentach Google i pomoc w Gmailu, która zaczęła się wdrażać pod koniec 2024 r., Często w przypadku subskrybentów poziomu premium. W konkurencyjnym środowisku widzi także innych graczy AI, takich jak antropiki z AI Claude, integrując się z Google Workspace, sygnalizując wyraźny kierunek branży w kierunku głęboko osadzonych asystentów AI na platformach produktywności.