Paris-baserte Mistral AI har lansert en minnefunksjon for sin Le Chat Assistant, noe som tilbyr en lignende evne.

detaljert dokumentasjon på datahåndteringspraksisen

p> p> p> lagret. Dette posisjonerer le chat som et gjennomtenkt alternativ i et marked der AI-tilbakekalling har vekket både spenning og betydelige personvernhensyn.

[innebygd innhold]

en fortelling om to filosofier: AI Memory Arms Race

Mistrals lanserings høydepunkt et voksende skillet i filosofien bak AI-minnet. På den ene siden er Openai og Google, som har omfavnet en vedvarende,”alltid-på”-modell. Openai oppgraderte ChatGPT i april 2025 for implisitt å henvise til en brukers hele chathistorikk.

Google fulgte en lignende bane, og oppdaterte Gemini i august 2025 med et automatisk minne for automatisk minne. Googles seniordirektør for Gemini-appen, Michael Siliski, sa at målet er at”Gemini-appen nå kan referere til dine tidligere chatter for å lære dine preferanser, og levere mer personlige svar, jo mer bruker du den.”

Denne strategiske divergensen gjenspeiler en grunnleggende debatt i AI-utvikling. Leiren”alltid-på”satser på å lage en dypt integrert, proaktiv assistent som forventer brukerbehov. Den”brukerinitierte”leiren prioriterer åpenhet, og satser på at brukere verdsetter forutsigbarhet og kontroll over autonom læring.

Google, for sin del, prøver å bygge bro over dette gapet. Mens hukommelsen er vedvarende, sa talsperson Elias Lawal at”like viktig gir deg enkle kontroller for å velge opplevelsen som er best for deg, slik at du kan slå denne funksjonen av og på når som helst,”peker på dens Som bevis.

på den andre siden av skillet er antropisk og nå Mistral. Antropic introduserte en minnefunksjon for Claude i august 2025 som står i sterk kontrast til de vedvarende modellene.

Ifølge talsperson Ryan Donegan,”Det er ennå ikke en vedvarende minnefunksjon som Openais chatgpt. CLAUDE vil bare hente og referere til din tidligere chat når du ber om det, og det er ikke å bygge en bruker. rammeverk. Administrerende direktør Dario Amodei har innrammet denne menneskesentriske tilnærmingen som essensiell, og sier “Vi er på vei til en verden der en menneskelig utvikler kan administrere en flåte av agenter, men jeg tror fortsatt menneskelig involvering kommer til å være viktig for kvalitetskontrollen…”

Det konkurrerende landskapet er nå godt definert. Microsoft integrerte minne i Copilot i april 2025, og Elon Musks Xai gjorde det samme for Grok samme måned, og skapte et marked der minnet nå er en tabell-stakes-funksjon.

Enterprise Ambition og vedvarende sikkerhetsrisiko

Mistrals strategi handler ikke bare om personlig personalisering; Det er også et betydelig bedriftsspill. Den samtidige lanseringen av over 20″MCP-drevne kontakter”for verktøy som Github, Snowflake og Asana understreker denne ambisjonen. Disse kontaktene gjør LE-chat til et sentralt knutepunkt for arbeidsflyter.

MCP-kontaktene fungerer som sikre broer, slik at Le Chat kan samhandle med tredjeparts tjenester uten å lagre sensitiv legitimasjon. Denne agentlignende evnen er det som gjør at AI kan gå fra å bare svare på spørsmål til aktivt å utføre oppgaver i en brukers eksisterende programvareøkosystem.

[innebygd innhold]

Dette presset for større evne introduserer alvorlige sikkerhetsutfordringer. Bekvemmeligheten med AI-minnet skaper et verdifullt og sårbart mål for ondsinnede aktører. Cybersecurity-forskere har gjentatte ganger demonstrert disse risikoene.

For eksempel ble Google Geminis minne vist å være sårbar for”forsinket verktøy på innkalling”. Forsker Johann Rehberger forklarte at ved å legge inn sovende kommandoer,”Når brukeren senere sier \”X \”[for den programmerte kommandoen], utfører Gemini, og tror at det følger brukerens direkte instruksjon, utførte verktøyet,”som kan ødelegge AIs minne.

Lignende utnyttelser har påvirket andre plattformer. En sårbarhet i ChatGPTs minne tillot å fjerne fortrolige data i slutten av 2024.

Videre presenterer de nye MCP-kontaktene en risiko. En fersk rapport fra sikkerhetsfirmaet Pynt fant at én av ti mcp-plugins er fullt utnyttet .

The Danger of Recropins er fullt utnyttelig i disse systemene. Et angrep er ikke bare en engangsfeil; Det kan forgifte AIs kunnskapsgrunnlag, noe som fører til gjentatte feil eller subtile datalekkasjer over tid. Dette gjør integriteten til de lagrede ‘minnene’ til en kritisk sikkerhetsgrense for alle leverandører.

Når AI-selskaper løper for å bygge mer intelligente assistenter, vil spenningen mellom funksjonalitet og sikkerhet bare intensiveres. Å balansere innovasjon med brukertillit er fortsatt den kritiske utfordringen i denne nye epoken med personlig AI.

Categories: IT Info