Google aktualizuje swoje ustawienia prywatności AI Gemini AI, wymagając od użytkowników aktywnego rezygnacji, jeśli nie chcą, aby ich przesłane treści używane do ulepszania usług Google. Pliki, zdjęcia i filmy udostępnione z AI zostaną domyślnie pobrane do analizy.
Ta zmiana jest częścią szerszej aktualizacji, że . Ten ruch ma na celu zwiększenie możliwości Gemini przy jednoczesnym zapewnieniu użytkownikom wyraźniejszej kontroli, choć stawia ciężar wyłączania danych na danej osoby.
Twoje przesyłanie wkrótce wyszkoli Gemini, chyba że wyrzucisz
Nowe zasady to znacząca zmiana w tym, w jaki sposób Google przetwarza dane użytkowników w AI Ecosym, umieszysz w zakresie odpowiedzialności Squalus-On Squality. prywatność. Od 2 września 2025 r. Google automatycznie wykorzysta próbkę przesyłania użytkowników w celu ulepszenia swoich usług. Obejmuje to szeroką gamę treści, takich jak pliki, filmy, zdjęcia, a nawet ekranu zadawane pytania o . Zmiana skutecznie przyznaje firmie prawo do analizy tej treści, chyba że użytkownicy wyraźnie zrezygnują.
ten kolekcja danych jest rządzona przez scenerię, która jest remontowana z aplikacji „gemini” do priory. Działalność.”Dla każdego użytkownika w wieku 18 lat lub więcej ustawienie to jest domyślnie włączone. Oznacza to, że aby zapobiec wykorzystaniu ich danych do szkolenia, ludzie muszą przejść do swoich ustawień i ręcznie je wyłączyć. Jednak Google wyjaśnił, że będzie szanował poprzednie opcje; Jeśli użytkownik już wyłączył „Aktywność aplikacji Gemini”, nowe ustawienie „Keep Activity” pozostanie wyłączone dla swojego konta. Użytkownicy
użytkownicy mogą zarządzać tymi uprawnieniami i przeglądać swoją historię w dowolnym momencie w dedykowaniu Gemini Activity Page . Poza tym, że po prostu włączając lub wyłączając funkcję, Google zapewnia bardziej szczegółowe elementy sterujące w zakresie zatrzymywania danych. Domyślnie aktywność Gemini starsza niż 18 miesięcy jest automatycznie usuwana. Użytkownicy mogą zmienić ten automatyczny okres na zaledwie 3 miesiące lub nawet 36 miesięcy. Alternatywnie mogą wybrać „Nie automatycznie złożone aktywność”, aby zachować swoją historię w nieskończoność, oferując pełne spektrum kontroli nad cyklem życia swoich danych.
Gdy użytkownik decyduje się na usunięcie aktywności, ręcznie lub poprzez funkcję automatycznego oddzielania, Google stwierdza, że natychmiast rozpoczyna proces usuwania danych z systemów. Zgodnie z dokumentacją wsparcia pierwszym krokiem jest usunięcie go z widoku w produkcie. Następnie następuje oddzielny, dokładniejszy proces zaprojektowany w celu „bezpiecznego i całkowitego usuwania danych” z infrastruktury pamięci, dając użytkownikom więcej kontrola ziarna nad ich retencją danych .
Prywatność Escape Hatch
Aby zrównoważyć charakter rezygnacji z jego gromadzenia danych, Google wprowadza „tymczasowe czaty”. Ta funkcja działa jak tryb incognito dla Bliźnięta, zapewniając, że rozmowy nie są zapisane w historii aktywności użytkownika lub używane do personalizacji.
Podczas gdy te czaty oferują więcej prywatności, Google zauważa, że rozmowy są nadal przechowywane przez do 72 godziny. Firma stwierdza, że służy to do celów operacyjnych i do przetworzenia wszelkich informacji zwrotnych użytkowników przed na stałe usunięto dane.
To podwójne podejście do zwiększania personalizacji podczas oferowania narzędzi prywatności jest strategiczne. Rzecznik Google, Elijah Lawal, podkreślił zaangażowanie firmy w wybór użytkowników, stwierdzając: „Równie kluczowe jest łatwe kontrole do wyboru najlepszych wrażeń, dzięki czemu możesz włączyć i wyłączać tę funkcję w dowolnym momencie,„ podkreślając znaczenie autonomii w nowym systemie. W całej branży nacisk na bardziej inteligentne, świadome kontekstu asystentów AI. Wprowadzenie trwałej, automatycznej pamięci rozszerza się na bardziej ręczną wersję uruchomioną w lutym 2025 r..
Ta aktualizacja umieszcza Bliźnięta w bezpośrednim konkurencji z rywalami, którzy agresywnie dążyli do podobnej funkcjonalności. Michael Siliski, starszy dyrektor Gemini, powiedział, że celem jest zapewnienie „aplikacji Gemini może teraz odwoływać się do twoich poprzednich czatów, aby nauczyć się twoich preferencji, dostarczając bardziej spersonalizowane odpowiedzi, im bardziej go używasz,„ sprawiając, że interakcje wydają się bardziej naturalne i świadomie kontekstu.
Wyścig o pamięć AI eskalowaną w 2025 r. OpenAI, wczesne, podwyższone, podwyższone, podwyższone. historia. Umożliwiło nawet tę funkcję spersonalizowanie zapytań internetowych chatbota, tworząc kompleksowy profil użytkownika.
Microsoft zintegrował funkcję pamięci z asystentem Copilot w tym samym miesiącu, co część masowej aktualizacji platformy. Również w kwietniu XAI Elona Muska wprowadził podobną zdolność do Grok Chatbota, podkreślając kontrolę użytkownika nad tym, co pamięta AI.
Jednak nie wszyscy konkurenci przyjmują pamięć „zawsze włączoną”. Na przykład Claude z Antropiku przyjmuje bardziej ostrożne podejście. Rzecznik Ryan Donegan wyjaśnił: „To jeszcze nie jest trwałe funkcje pamięci, takiej jak Chatgpt Openai. Claude, odzyska i odwołuje się do twoich poprzednich czatów, gdy poprosisz o…„ Ustawienie go jako bardziej umyślnego, pobudzającego prywatność alternatywę w zatłoczonym polu.
trwałe, uporczywe ryzyko
TEGO BRANDANTIVE RUCE FORUS FORUNG FORI SURSUNTY RUSUNTURTY WYRUKTURY Wprowadza znaczące bezpieczeństwo i wyzwania etyczne. Możliwość przechowywania i przywoływania ogromnych ilości danych użytkownika stwarza cenny cel dla złośliwych aktorów i rodzi pytania dotyczące obsługi danych.
Badacze cyberbezpieczeństwa, ujawnili już luki w tych powstających systemach. Badacz Johann Rehberger wykazał, w jaki sposób pamięć Gemini można manipulować za pomocą techniki zwanej „Opóźnionymi wywołaniem narzędzia”, która osadza uśpione polecenia w dokumentach.
wyjaśnił ryzyko, stwierdzając, że gdy użytkownik udziela zaprogramowanego polecenia, „Gdy użytkownik później mówi \„ x \ “[dla zaprogramowanego polecenia], Gemini, wierząc, że obserwuje go, wykonuje instrukcję, egzekucję, wykonanie instrukcji, egzekucja, wykonanie instrukcji, wykonanie instrukcji, wykonanie instrukcji, egzekute. potencjalnie uszkodzone jego długoterminowe pamięć fałszywymi informacjami. Podkreśla to nowy wektor wyrafinowanych ataków na systemy AI.
Podobne luki zostały znalezione w pamięci Chatgpt, w której z powodzeniem wykorzystano szybkie ataki wstrzyknięcia do wykładania danych z wycofania AI. Incydenty te podkreślają fundamentalne napięcie w rozwoju sztucznej inteligencji: równoważenie zaawansowanej funkcjonalności z solidnym bezpieczeństwem.
Gdy AI staje się bardziej zintegrowane z codziennym życiem, debata na temat prywatności i bezpieczeństwa tylko nasile się. Uderzenie właściwej równowagi między innowacją a ochroną użytkowników będzie miało kluczowe znaczenie dla utrzymania zaufania do coraz bardziej inteligentnego i autonomicznego świata cyfrowego.