Anthropic forbereder seg på å utstyre sin AI-assistent, Claude, med en minnefunksjon, et strategisk grep for å lukke et kritisk funksjonalitetsgap med sine viktigste rivaler. Den planlagte oppdateringen, som ennå ikke er offisielt kunngjort av selskapet, ble oppdaget etter at brukere oppdaget ny kode som refererte til muligheten i en fersk mobilappoppdatering. This development positions Claude to directly compete with OpenAI’s ChatGPT, Google’s Gemini, and xAI’s Grok, all of which have made conversational recall a central pillar of their user experience.
The discovery was first spotted by a En bruker på x som hadde avdekket de nye grensesnittelementene. For antropisk er det ikke lenger en valgfri forbedring, men en konkurransedyktig nødvendighet. Funksjonen lover å gjøre interaksjoner med Claude mer sømløs ved å la den huske brukerpreferanser og kontekst fra tidligere chatter, og eliminere et felles friksjonspunkt for brukere.
Utover enkel tilbakekalling antyder oppdateringen også en dypere integrasjon er planlagt. I følge den første rapporten kan Claude også få muligheten til å legge inn funksjonaliteten direkte innenfor sin”gjenstander”-funksjon, et sidefeltrom for interaktivt innhold. Ettersom antropisk kommer inn på denne arenaen, arver den ikke bare fordelene med en mer personlig AI, men også de komplekse utfordringene med brukerkontroll og sikkerhet som har definert AI-minnelandskapet.
funksjonalitet og kontroll: en balanseringshandling
Målet var en mer personlig. Openais to-lags system, detaljert i dets blogg innlegg at målet var å forhindre at brukere skal bruke det som skal være et alff. Automatisk tilbakekalling og gir brukerne klare, håndterbare kontroller over sine egne data.
vedvarende minne, vedvarende risiko
Legge til et minnelag introduserer imidlertid en rekke komplekse sikkerhets-og personvernutfordringer. Den viktigste trusselen er hurtig injeksjon, der ondsinnede instruksjoner som er skjult i dokumenter eller andre data, kan lure en AI til å ødelegge hukommelsen eller, verre, utløsende sensitiv brukerinformasjon. Denne risikoen er ikke teoretisk. Cybersecurity-forsker Johann Rehberger har demonstrert slike Sårbarhet i både chatgpt og Google Gemini.
p> p> p> p> p> p> p> p> p> kunne manipulere AIs minne. Som Rehberger forklarte,”Når brukeren senere sier”X”[for den programmerte kommandoen], utfører Gemini, som tror at den følger brukerens direkte instruksjon, verktøyet.”
Stabiliteten til disse komplekse systemene er fortsatt en praktisk bekymring for brukere. En detaljert Casestudie publisert på GitHub Dokumenterte betydelige arbeidsflytforstyrrelser når du bruker CHOPPENT for dokument-heavy-tasken.
brukeren som er MEDGPT for Document-Heavy Tasks.
Disse sikkerhetsproblemene blir forsterket av bredere spørsmål om datapersonvern og etikken i AI-utvikling. I følge en fersk artikkel fra den nye stack , er Anthropic allerede overfor gransking over sin datapraksis. 4. juni sendte Reddit inn en juridisk klage mot selskapet, og påsto at det”trente på personopplysningene til Reddit-brukere uten noen gang å be om deres samtykke.”å utvikle sine modeller. Dette søksmålet reiser grunnleggende spørsmål om dataene som ligger til grunn for selve”minnene”disse AI-ene blir bygget for å ha.