Google uppgraderar sin Gemini AI-assistent med ett ihållande, automatiskt minne, vilket gör att det kan lära sig av tidigare samtal för att leverera mer personliga svar. Uppdateringen syftar till att skapa en mer kraftfull och proaktiv assistent som förstår användarens preferenser utan att behöva ständiga påminnelser.
för att ta itu med integritetsproblem, företaget lanserar samtidigt”tillfälliga chattar”, en funktion för samtal som inte sparas eller används för personalisering. Denna rörelse, som möjliggör kärnminnesfunktionen som standard men ger tydliga användarkontroller, eskalerar AI Arms-loppet.
Det placerar Gemini i direkt konkurrens med liknande minnesbaserade funktioner som nyligen rullas ut av rivaler som OpenAI, Anthropic och Microsoft för deras respektive AI Chatbots. src=”https://winbuzzer.com/wp-content/uploads/2024/08/google-gemini-custom-gems.jpg”>
Gemini får ett minne-och det är alltid på
Google’s latest update fundamentally changes how Gemini interacts with users, fulfilling a vision outlined at its I/O conference to create an AI that truly understands you. Den nya minnesfunktionen, som är aktiverad som standard, gör det möjligt för assistenten att automatiskt återkalla viktiga detaljer och preferenser från tidigare chattar över tid.
Detta automatiska inlärning expanderar avsevärt på den mer manuella minnesfunktionen som introducerades i februari 2025, vilket krävde användare att mer aktivt hantera återkallningsprocessen. Nu är Gemini utformat för att lära sig organiskt, vilket gör att samtal känns mer naturliga och kontextmedvetna, som om du samarbetar med en partner som redan är upp till hastighet.
I praktiken betyder detta om du tidigare diskuterade en YouTube-kanalidé om japansk kultur, Gemini kan senare föreslå ett videotema om att prova japansk mat. Målet, enligt Michael Siliski, en seniorregissör för Gemini-appen, är att se till att”The Gemini-appen nu kan hänvisa till dina tidigare chattar för att lära dig dina preferenser och leverera mer personliga svar ju mer du använder den.”
Google rullar ut funktionen under de kommande veckorna, varvid det är Ursprungligen tillgängligt för 2.5 Pro-modellen i utvalda länder Innan han expanderar till 2.5 Flash-modellen. Användare kan hitta kontrollen under inställningar i menyn”Personlig sammanhang”.
Nya integritetsverktyg erbjuder en flykt Hatch
för att motverka”på-för-default”-ens natur av dess nya minne har Google samlat uppdateringen med en svit av nya användarkontroller utformade för att ge användare en flykting för deras data. Den mest betydelsefulla av dessa är”tillfälliga chattar”, en efemeral läge för känsliga eller enstaka frågor . Den här funktionen är idealisk för ögonblick när en användare vill utforska privata frågor eller brainstorma idéer utanför deras vanliga stil utan att den konversationen påverkar framtida interaktioner.
när i en href=”https://support.google.com/gemini/answer/13666746″Target=”_ blank”> Senaste chattlista eller deras Gemini-APPS Dessutom byter Google sin”Gemini Apps Activity”-inställning för att”behålla aktivitet”för större transparens. Om en användare möjliggör detta alternativ kommer Google att använda ett urval av sin framtida fil och fotouppladdningar för att förbättra sina tjänster, en förändring som kommer att gälla för innehåll som laddas upp från och med 2 september 2025. Denna inställning är av som standard och användare som tidigare inaktiverade Gemini-appar kommer att hitta den nya “Inställningen”-inställningen. Verge. He stated that while building a personal AI is the focus, “equally crucial is giving you easy controls to choose the experience that’s best for you, so you can turn this feature on and off at any time.”Användare kan Inaktivera minnesfunktionen eller hantera lagrade data När som helst genom deras inställningar och lär dig mer i Gemini-Apps Privacy Hub . escalating battle among tech giants to make their AI assistants indispensable, with persistent, context-aware memory emerging as the key battleground in 2025. The feature is now a table-stakes capability, and Google’s “always-on”approach places it in direct competition with rivals who have aggressively pursued similar functionality to drive user loyalty. OpenAI, an early mover, has adopted a multi-layered strategy for Chatgpt. Efter att ha testat minnesfunktioner i början av 2024 uppgraderade det sitt system i april 2025 för att implicit hänvisa till en användares hela chatthistorik. Den fördjupade ytterligare denna integration genom att göra det möjligt för dess minne att anpassa Chatbots webbsökningsfrågor, vilket skapade en omfattande profil av användarinställningar över tid. Resten av branschen följde snabbt efter. I april 2025 integrerade Microsoft en minnesfunktion i sin copilotassistent som en del av en massiv plattformsuppgradering. Samma månad rullade Elon Musks XAI ut en liknande kapacitet för sin Grok Chatbot, och betonade i sitt tillkännagivande att användare kunde se exakt vad AI vet och välja vad den ska glömma. Men inte alla spelare följer samma”alltid-on”-spelbok. Anthropic introducerade nyligen en minnesfunktion för sin Claude Chatbot som står i skarp kontrast. Enligt talesman Ryan Donegan,”Det är ännu inte en ihållande minnesfunktion som Openais chatgpt. Claude kommer bara att hämta och referera till dina tidigare chattar när du ber det till…”Denna användarinitierade modell, som anpassar sig till företagets allmänna säkerhetsram, positioner Claude som ett mer deliberat, privatföreträdare för att få ett folkminne. Risker
Push för ihållande AI-minne introducerar betydande säkerhet och etiska utmaningar. Möjligheten att lagra och återkalla användardata skapar ett värdefullt mål för skadliga skådespelare. Cybersecurity-forskaren Johann Rehberger har visat hur dessa system kan utnyttjas. Han fann att Geminis minne skulle kunna manipuleras genom”försenad verktygsinvokation”, en teknik som inbäddar vilande kommandon i dokument. Rehberger förklarade risken och konstaterade,”När användaren senare säger \”x \”[för det programmerade kommandot], Gemini, och tror att det följer användarens direkta instruktion, utför verktyget”som kan förstöra AI: s långvariga minne med falsk information. Dessa incidenter, tillsammans med Rapporter om ais utvecklar”delusion”beteenden , unscore a fundaling in ai ai ai civing: balancing within within functionaly Säkerhet. Förespråkare för integritet har också höjt larm. Some experts have criticized “on-by-default”memory settings, arguing they create persistent risks for users who may not be fully aware of how their data is being Används . Medan Google insisterar på att dess kontroller är tillräckliga, säkerställer det branschövergripande loppet för smartare AI att debatten om datasekretess och säkerhet endast kommer att intensifieras. Att slå rätt balans kommer att vara avgörande för att upprätthålla användarförtroende i en allt mer intelligent och autonom digital värld.