AI Company Anthropic a introdus o caracteristică de memorie pentru Claude Chatbot, concepută pentru a face interacțiunile mai eficiente. Anunțată pe 11 august, noua capacitate permite AI să caute și să facă referire la conversațiile anterioare atunci când este solicitată de un utilizator, ajutându-i să continue proiectele fără a repeta informații.

Funcția este disponibilă pe platformele web, desktop și mobile ale Claudei. Spre deosebire de memoria persistentă a rivalilor precum chatgpt-ul lui OpenAI, versiunea Antropic este inițiată de utilizator. Aceasta o poziționează ca o opțiune mai transparentă și mai controlată. În primul rând, se lansează abonații plătiți pe nivelurile Max, Team și Enterprise.

Mutarea escaladează lupta continuă pentru loialitatea utilizatorilor între asistenții AI, unde interacțiunile personalizate, conștiente de context sunt un diferențiator cheie. Anthropic pariază că abordarea sa deliberată, centrată pe confidențialitate, poate crea o nișă semnificativă împotriva rivalilor mai agresivi.

cum CLAUDORY memoria Works

Mecanica caracteristicii sunt simple. Utilizatorii pot solicita Claude să reamintească informații din discuțiile anterioare, iar AI va Căutați istoria sa pentru a oferi contextul relevant pentru chatul actual . Această funcționalitate este activată în mod implicit, dar poate fi eliminată în setările profilului.

Pentru utilizatorii care doresc să împiedice să fie incluse conversații specifice în căutările viitoare, singura metodă disponibilă în prezent este să ștergeți chatul în întregime. This all-or-nothing approach underscores the feature’s current design, prioritizing simplicity over granular control of individual memories, a potential area for future refinement.

[embedded content]

A Cautious, User-Controlled Approach to AI Memory

Anthropic is deliberately framing its new, hotly anticipated memory function around user control and transparency, a calculated move in a Piața în care capacitățile de reamintire AI au stârnit atât emoții, cât și controverse. În loc să replic pur și simplu memoria persistentă, mereu pe rivali, compania își poziționează implementarea ca o alternativă mai atentă și mai atentă și care prezintă confidențialitate.

Anunțul oficial al companiei evidențiază beneficiul principal al caracteristicii, afirmând că „Nu pierdeți din nou lucrarea voastră. Această mesagerie se concentrează în mod clar pe productivitate și continuitate a fluxului de lucru, un punct cheie de durere pentru utilizatorii profesioniști angajați în proiecte cu mai multe sesiuni.

Cu toate acestea, distincția crucială constă în mecanica sa, care abordează în mod direct îngrijorările crescânde cu privire la confidențialitatea datelor și autonomia AI. Potrivit purtătorului de cuvânt al Antropic, Ryan Donegan, „Nu este încă o caracteristică de memorie persistentă, cum ar fi Chatgpt-ul lui OpenAI. Claude va prelua și va face referire la chaturile dvs. trecute atunci când îl cereți și nu construiește un profil de utilizator”. Acest model la cerere asigură că utilizatorul rămâne autoritatea finală la momentul în care este utilizată istoria conversațională a acestora.

Această filozofie de proiectare se aliniază principiilor prezentate în cadrul de siguranță publicat recent de Antropic, care accentuează păstrarea oamenilor în control și asigurarea transparenței. Făcând memoria o acțiune explicită, declanșată de utilizator, mai degrabă decât un proces implicit, de fundal, Antropic își pune în practică primul retorică de siguranță. Este un contrapunct direct către sistemele în care utilizatorii pot fi siguri de ceea ce știe AI despre ei sau cum a învățat-o.

Mai mult, această caracteristică este doar o componentă a unei abordări cu mai multe straturi de personalizare. Așa cum este detaliat în documentația sa de asistență, Antropic oferă deja instrumente precum preferințele de profil la nivelul întregului cont și instrucțiunile specifice proiectului pentru a oferi Claude cu contextul. Prin urmare, noua capacitate de căutare a chat-ului nu este o soluție de memorie de pătură, ci un instrument specific pentru preluarea informațiilor istorice, completarea altor metode de ghidare a comportamentului AI.

Această strategie susține viziunea mai largă a CEO-ului Dario Amodei asupra unui viitor în care „ne îndreptăm spre o lume în care un dezvoltator uman poate gestiona o flotă a agenților, dar cred că implicarea umană va fi importantă pentru a fi importantă pentru controlul calității…” Manager, iar capacitatea de a trage în mod selectiv în contextul istoric este un alt instrument de care dispune, consolidând o abordare colaborativă, condusă de om la interacțiunea AI.

Cursa competitivă pentru o AI mai personală

Anthropic este cea mai recentă mișcare într-o escaladare a armelor printre gianții AI pentru a face ca lansarea lor mai recentă și „să scape.” Capacitatea de a-și aminti contextul în sesiuni este văzută ca un motor cheie al loialității utilizatorilor. Fiecare jucător major oferă acum o anumită formă a acestei capacități, dar cu diferite filozofii.

OpenAI a fost un mutare timpurie, extinderea funcției sale de memorie pentru utilizatorii ChatGPT Plus în mai 2024. Ulterior, a actualizat sistemul în aprilie 2025 pentru a face referire implicit întregul istoric al unui utilizator, trecând dincolo de amintiri salvate explicit. Această abordare este concepută pentru a construi o înțelegere cuprinzătoare a utilizatorului în timp.

Google a urmat o cale similară, adăugând rechemarea încrucișată la asistentul său Gemini în februarie 2025. Chiar și Xai de la Elon Musk a intrat în FRAY, derulând o caracteristică de memorie pentru chatbot-ul său Grok în aprilie 2025. O apăsare mai largă pentru instrumentele pregătite pentru întreprinderi

Această nouă caracteristică nu este o actualizare izolată a produsului, ci o parte a unei strategii mai largi și deliberate de către antropic. Compania construiește constant o suită de instrumente de calitate întreprinderii care subliniază siguranța, controlul și aplicarea practică de afaceri. Acest lucru se aliniază viziunii CEO-ului Dario Amodei în care „ne îndreptăm spre o lume în care un dezvoltator uman poate gestiona o flotă de agenți, dar cred că implicarea umană continuă va fi importantă pentru controlul calității…”.

Lansarea memoriei urmează o serie de versiuni recente de mare valoare. În iulie 2025, compania a vizat Wall Street cu „Claude for Financial Services” și a lansat „sub-agenți” pentru platforma sa de cod Claude pentru a eficientiza fluxurile de lucru ale dezvoltatorilor complexi.

Aceste mișcări ale produsului sunt bazate pe un angajament public față de siguranță. La începutul lunii august, Antropic a publicat un nou cadru pentru dezvoltarea agenților AI de încredere. Acest lucru a apărut la scurt timp după lansarea Claude Opus 4.1, o actualizare axată pe îmbunătățirea codificării și siguranței în protocoalele existente.

Acest lucru contrastează cu abordarea „Mutați-vă rapid și rupeți lucrurile” care a dus la eșecuri publice la Rival Labs. Prin asocierea capacității de asociere cu controale transparente, Antropic își propune să creeze încredere cu o bază de utilizatori profesională care apreciază fiabilitatea la fel de mult ca puterea brută într-un ecosistem AI din ce în ce mai volatil.

Categories: IT Info