A Google frissíti a Gemini AI adatvédelmi beállításait, és megköveteli a felhasználóktól, hogy aktívan lépjenek ki, ha nem akarják, hogy a feltöltött tartalom a Google szolgáltatásainak javításához használható. Az AI-vel megosztott fájlok, fényképek és videók alapértelmezés szerint mintát vesznek az elemzés céljából. Tevékenység”. A lépés célja az Ikrek képességeinek javítása, miközben a felhasználóknak egyértelműbb irányítást biztosítanak, bár az adatgyűjtés letiltásának terheit az egyénre helyezi. 2025. szeptember 2-tól kezdve a Google automatikusan használja a felhasználói feltöltések mintáját a szolgáltatások fejlesztéséhez. Ez magában foglalja a tartalom széles skáláját, például fájlokat, videókat, fényképeket és még képernyőkkel kapcsolatos kérdéseket tesz fel a -ról. A változás hatékonyan biztosítja a társaságnak a tartalom elemzésére, hacsak a felhasználók kifejezetten kilépnek. Tevékenység.”Bármely 18 éves vagy annál idősebb felhasználó esetében ez a beállítás alapértelmezés szerint engedélyezve van. Ez azt jelenti, hogy annak megakadályozása érdekében, hogy adataik képzéshez felhasználják, az egyéneknek navigálniuk kell a beállításukhoz, és manuálisan le kell tiltaniuk azt. A Google azonban tisztázta, hogy tiszteletben tartja a korábbi döntéseket; Ha egy felhasználó már kikapcsolta a „Gemini Apps tevékenységet”, akkor az új „Keep Activity” beállítás le van tiltva a fiókjukban. A szolgáltatás be-vagy kikapcsolásán túl a Google részletesebb vezérlést biztosít az adatmegtartás felett. Alapértelmezés szerint a 18 hónapnál régebbi gemini tevékenységet automatikusan törli. A felhasználók megváltoztathatják ezt az auto-delete időszakot 3 hónapra, vagy akár 36 hónapra is. Alternatív megoldásként kiválaszthatják a „Ne automatikusan a tevékenységet”, hogy végtelenségig tartsák a történelemüket, és teljes ellenőrzési spektrumot kínálnak az adatok életciklusa felett. Támogatási dokumentációja szerint az első lépés az, hogy eltávolítsa a terméken belüli látásból. Ezt egy külön, alaposabb eljárás követi, amelynek célja az adatok biztonságos és teljes törlése a tárolási infrastruktúrából, így a felhasználóknak több Granular Control a Granular Control a Granular Control a Granular Control a Granular Control a Granular Control a Granular Control a Granular Control a Granular Control a Granular Control A-t. Escape Hatch
Az adatgyűjtés opt-out természetének ellensúlyozása érdekében a Google bemutatja az „ideiglenes csevegést”. Ez a szolgáltatás úgy működik, mint egy Ikrek inkognitó módja, biztosítva, hogy a beszélgetések ne mentsék el a felhasználó tevékenységi előzményeibe vagy használják a személyre szabást. A vállalat kimondja, hogy ez operatív célokra és bármilyen felhasználói visszajelzés feldolgozására szolgál, mielőtt az adatokat véglegesen törlik. A Google szóvivője, Illés Lawal, hangsúlyozta a vállalat elkötelezettségét a felhasználói választás iránt, kijelentve: „Ugyanilyen döntő fontosságú, hogy könnyű ellenőrzéseket biztosítson az Ön számára legmegfelelőbb élmény kiválasztásához, így bármikor bekapcsolhatja ezt a funkciót. Az iparág egészére kiterjedő intelligensebb, kontextus-tisztában lévő AI asszisztensek. A tartós, automatikus memória bevezetése egy 2025 februárjában elindított kézi verzióra bővül. Michael Siliski, a Gemini vezető igazgatója elmondta, hogy a cél az, hogy „az Ikrek alkalmazás most hivatkozhat a múltbeli csevegéseire, hogy megtanulja a preferenciákat, személyre szabottabb válaszokat adjon, annál inkább használja”, az interakciók természetes és kontextus ismereteinek. Még lehetővé tette a szolgáltatás számára, hogy személyre szabja a chatbot webes keresési lekérdezéseit, létrehozva egy átfogó felhasználói profilt. Az Elon Musk XAI áprilisban hasonló képességet teremtett a Grok Chatbot számára, hangsúlyozva a felhasználói ellenőrzést az AI által emlékszik. Az Antropic’s Claude például óvatosabb megközelítést alkalmaz. Ryan Donegan szóvivője elmagyarázta: „Ez még nem olyan tartós memória funkció, mint az Openai Chatgpt. Claude csak a múltbeli csevegéseit kapja meg és hivatkozik, amikor azt kéri, hogy egy tudatosabb, magánszemélyek megőrző alternatívájaként. Az AI memória jelentős biztonsági és etikai kihívásokat vezet be. Az a képesség, hogy óriási mennyiségű felhasználói adat tárolása és visszahívása értékes célt hozzon létre a rosszindulatú szereplők számára, és kérdéseket vet fel az adatkezeléssel kapcsolatban. A kutató, Johann Rehberger megmutatta, hogyan lehet manipulálni Gemini memóriáját a „késleltetett szerszám meghívás” elnevezésű technikával, amely beágyazza a nyugalmi parancsokat a dokumentumokba. Hosszú távú memóriájának hamis információkkal megsérül. Ez kiemeli az AI rendszerek elleni kifinomult támadások új vektorát. Ezek az események alátámasztják az AI fejlődésének alapvető feszültségét: A fejlett funkciók kiegyensúlyozása a robusztus biztonsággal. Az innováció és a felhasználói védelem közötti megfelelő egyensúly megteremtése kritikus jelentőségű az egyre intelligensebb és autonóm digitális világban való bizalom fenntartása érdekében.
Categories: IT Info