Anthropic bereidt zich voor om zijn AI-assistent, Claude, uit te rusten met een geheugenfunctie, een strategische zet om een kritieke functionaliteitskloof te dichten met zijn belangrijkste rivalen. De geplande update, nog niet officieel aangekondigd door het bedrijf, werd ontdekt nadat gebruikers nieuwe code hadden gezien die verwijst naar de mogelijkheden in een recente update van mobiele apps. Deze ontwikkeling positioneert Claude om rechtstreeks te concurreren met Openai’s Chatgpt, Google’s Gemini en Xai’s Grok, die allemaal conversationele terugroepactie hebben gemaakt tot een centrale pijler van hun gebruikerservaring.
De ontdekking werd voor het eerst gespot door een Een gebruiker op x die de nieuwe interface-elementen had ontdekt. Voor antropisch is het toevoegen van geheugen niet langer een optionele verbetering maar een concurrerende noodzaak. De functie belooft interacties met Claude meer naadloos te maken door het te laten onthouden van gebruikersvoorkeuren en context uit eerdere chats, waardoor een gemeenschappelijk punt van wrijving voor gebruikers wordt geëlimineerd.
Na eenvoudige terugroeping suggereert de update ook dat een diepere integratie is gepland. Volgens het eerste rapport kan Claude ook de mogelijkheid krijgen om zijn functionaliteit rechtstreeks in zijn”artefacten”-functie in te sluiten, een zijbalkruimte voor interactieve inhoud. Aangezien anthropic deze arena binnengaat, overgaat het niet alleen de voordelen van een meer gepersonaliseerde AI, maar ook de complexe uitdagingen van gebruikerscontrole en beveiliging die het AI-geheugenlandschap hebben gedefinieerd.
officiële FAQ , onderscheidt zich tussen expliciete”opgeslagen herinneringen”die gebruikers kunnen bekijken en de impliciete referentie van chatgeschiedenis, die alleen kunnen zijn, die kunnen worden uitgeschakeld en de impliciete wholesale.
In contrast, when xAI launched Grok’s memory, its announcement on X emphasized transparency, stating, “Memories are transparent… [Y]ou kan precies zien wat Grok weet en kiezen wat te vergeten.”Google, van zijn kant, gericht op efficiëntie, uitgelegd in een blogpost dat het doel was om te voorkomen dat gebruikers een krachtige terugroeping en het aanbieden van een krachtige roeping en het aanbieden van een krachtige terugroeping en het aanbieden van een krachtige terugroepactie en het aanbieden van een krachtige terugroepactie en het aanbieden van een krachtige roep. Gebruikers met duidelijke, beheersbare bedieningselementen over hun eigen gegevens.
persistent geheugen, aanhoudende risico’s
Een geheugenlaag toevoegen, introduceert echter een groot aantal complexe beveiligings-en privacy-uitdagingen. De belangrijkste bedreiging is snelle injectie, waarbij kwaadaardige instructies verborgen in documenten of andere gegevens een AI kunnen misleiden om zijn geheugen te corrumperen of, erger nog, exfiltrerende gevoelige gebruikersinformatie. Dit risico is niet theoretisch. Cybersecurity-onderzoeker Johann Rehberger heeft dergelijke kwetsbaarheden in beide chatgpt en Google Gemini. Aanvaller kon het geheugen van de AI manipuleren. Zoals Rehberger uitlegde:”Wanneer de gebruiker later”X”zegt [voor de geprogrammeerde opdracht], voert Gemini, in de overtuiging van de directe instructie van de gebruiker, de tool uit.”
De stabiliteit van deze complexe systemen blijft ook een praktische zorg voor gebruikers. Een gedetailleerde case study gepubliceerd op github Documenteerde aanzienlijke workflow-verstoringen bij het gebruik van chatgpt voor document-havy-taken. Verstoort mijn workflow ernstig bij het werken aan documenten”-Een probleem dat de immense technische uitdaging onderstreept om een betrouwbaar en veilig geheugensysteem op schaal te bouwen. De toegang van Anthropic in de geheugenwapenwapen betekent dat het niet alleen een functie achtervolgt, maar ook de diepgaande beveiligings-en ethische verantwoordelijkheden confronteert die daarbij horen. Volgens Een recent artikel van de nieuwe stapel , wordt Anthropic al geconfronteerd met een overzicht van zijn gegevenspraktijken. Op 4 juni diende Reddit een juridische klacht in tegen het bedrijf, bewerend dat het”getraind in de persoonlijke gegevens van Reddit-gebruikers zonder ooit hun toestemming te vragen.”om zijn modellen te ontwikkelen. Deze rechtszaak roept fundamentele vragen op over de gegevens die ten grondslag liggen aan de zeer”herinneringen”deze AI’s worden gebouwd.