Antropico si sta preparando a equipaggiare il suo assistente di intelligenza artificiale, Claude, con una funzione di memoria, una mossa strategica per colmare un divario di funzionalità critico con i suoi principali rivali. L’aggiornamento pianificato, non ancora annunciato ufficialmente dalla società, è stato scoperto dopo che gli utenti hanno individuato un nuovo codice facendo riferimento alla capacità in un recente aggiornamento dell’app mobile. Questo sviluppo posiziona Claude per competere direttamente con CHATGPT di Openi, Google Gemini e Xai’s Grok, che hanno reso tutti richiamati conversazionali un pilastro centrale della loro esperienza utente.

La scoperta è stata individuata per la prima volta da a Un utente su x che aveva scoperto i nuovi elementi di interfaccia. Per l’antropico, l’aggiunta della memoria non è più un miglioramento opzionale ma una necessità competitiva. La funzionalità promette di rendere le interazioni con Claude più senza soluzione di continuità consentendole di ricordare le preferenze degli utenti e il contesto dalle chat precedenti, eliminando un punto comune di attrito per gli utenti.

Oltre a un semplice richiamo, l’aggiornamento suggerisce anche che viene pianificata un’integrazione più profonda. Secondo il rapporto iniziale, Claude può anche ottenere la capacità di incorporare la sua funzionalità direttamente nella sua funzione”artefatti”, uno spazio della barra laterale per contenuti interattivi. Mentre antropico entra in questa arena, eredita non solo i vantaggi di un’intelligenza artificiale più personalizzata, ma anche le complesse sfide del controllo e della sicurezza degli utenti che hanno definito il panorama della memoria AI.

FAQ ufficiali , distingue tra i ricordi di salvata

Al contrario, quando Xai ha lanciato la memoria di Grok, è Annuncio su x Guarda esattamente ciò che Grok sa e scegli cosa dimenticare.”Google, da parte sua, si è concentrato sull’efficienza, spiegando in un post sul blog che l’obiettivo era quello di impedire agli utenti di iniziare a richiamare. e fornendo agli utenti controlli chiari e gestibili sui propri dati.

Memoria persistente, rischi persistenti

Aggiungendo un livello di memoria, tuttavia, introduce una serie di complesse sfide alla sicurezza e alla privacy. La minaccia più significativa è l’iniezione pronta, in cui le istruzioni dannose nascoste nei documenti o in altri dati possono indurre un’intelligenza artificiale a corrompere la sua memoria o, peggio ancora, esfiltrando informazioni sugli utenti sensibili. Questo rischio non è teorico. Johann Rehberger, ricercatore di Cybersecurity, ha dimostrato tale vulnerabilità in entrambi i chatgpt e Google Gemina. Manipola la memoria dell’intelligenza artificiale. Come ha spiegato Rehberger,”quando l’utente in seguito dice”X”[per il comando programmato], Gemini, credendo che stia seguendo l’istruzione diretta dell’utente, esegue lo strumento.”

La stabilità di questi sistemi complessi rimane anche una preoccupazione pratica per gli utenti. A dettagliato case study pubblicato su github ha documentato le interruzioni del flusso di lavoro quando si utilizzano il chatgpt per le attività di conversazione. Interra seriamente il mio flusso di lavoro quando si lavora su documenti”, un problema che sottolinea l’immensa sfida tecnica di costruire su larga scala un sistema di memoria affidabile e sicuro. L’ingresso di Antropico nella corsa agli armamenti di memoria significa che non sta solo inseguendo una caratteristica, ma affronta anche le profonde responsabilità etiche di sicurezza e di sicurezza. Secondo Un articolo recente del nuovo stack , Antropopic è già affrontato da scrupoli sulle sue pratiche di dati. Il 4 giugno, Reddit ha presentato una denuncia legale contro la società, sostenendo che”è stato formato sui dati personali degli utenti di Reddit senza mai richiedere il loro consenso”. per sviluppare i suoi modelli. Questa causa solleva domande fondamentali sui dati alla base degli stessi”ricordi”che questi AIS sono costruiti per avere.

Categories: IT Info