Mentre Openai continua a migliorare le capacità di CHATGPT, le esperienze dell’utente evidenziano le sfide persistenti con stabilità della sessione, conservazione della memoria e prestazioni, in particolare durante flussi di lavoro complessi e pesanti.
Un dettaglio L’utente ha suggerito Openi dovrebbe”consentire agli utenti di conservare un numero limitato di versioni di documento precedenti, come 1 o 2-piuttosto che eliminare automaticamente tutte le vecchie versioni. Idealmente, questo potrebbe essere reso configurabile…”Il repository contiene anche un file
Questi problemi riportati dall’utente forniscono un contesto per le caratteristiche di memoria multi-stage di Open-stage apparentemente progettate per mitigare tali problemi. La società ha iniziato a testare una capacità di memoria di base nel febbraio 2024, consentendo agli utenti di fornire esplicitamente fatti da ricordare da Chatgpt. Questa funzione di base ha visto la disponibilità estesa per gli abbonati più in seguito. Una funzione di memoria distinta e più implicita è arrivata intorno al 10 aprile 2025, quando Openai ha abilitato Chatgpt (a partire dagli abbonati Pro) a riferimento a una storia di chat di un utente Per la personalizzazione, che Sam Altman ha descritto come progredire verso”AI Systems che ti conosce per te.” Poco dopo, la funzione”Memory with Search”è stata dettagliata in Note di rilascio della società, che consente a Chatgpt da usare in modo da usare in modo da usare in modo da usare in modo da usare in modo da usare in modo da usare in modo da utilizzare in modo da utilizzare in modo da utilizzare. cronologia della chat, controllabile tramite impostazioni dettagliate in FAQ di memoria per personalizzare le query di ricerca web non condotte con le query di ricerca Web condotte da Micosoft Bing. Per un ragionamento migliorato. È importante distinguere queste caratteristiche di memoria in uscita dallo server separato di OpenAI prompt cache usate l’API per le prestazioni di ottimizzazione delle prestazioni. Rischi?
migliorando l’esperienza dell’utente, le capacità di memoria persistenti introducono intrinsecamente considerazioni sulla sicurezza. L’iniezione rapida, in cui le istruzioni dannose nascoste nell’input dell’utente o nelle fonti di dati esterne manipolano il comportamento LLM, è classificata come un rischio principale di sicurezza AI da gruppi come OWASP, sfruttando i modelli di difficoltà hanno istruzioni fidate da dati non attendibili. Tali vulnerabilità nel 2024. A giugno arxiv paper ha esplorato come la memoria potesse facilitare gli attacchi di esfiltrazioni dei dati, mentre a un altro rapporto ha messo in evidenza l’iniezione di taglio a lungo termine. Secondo quanto riferito, Openai ha affrontato che la vulnerabilità MACOS specifica, la sfida fondamentale di garantire la memoria di AI persistente rimane una preoccupazione a livello di settore, influenzando le caratteristiche simili da concorrenti come Google Gemini, Microsoft Copilot e Xai Grok. OpenIAi fornisce controlli per utenti per le caratteristiche della memoria per disabili. La società afferma che i dettagli specifici dell’account utente non sono condivisi con i partner di ricerca, sebbene i dati di posizione generalizzati dedotti dagli indirizzi IP potrebbero essere utilizzati per migliorare la pertinenza dei risultati. L’implementazione della memoria con la ricerca è graduale. Gli abbonati a pagamento dovrebbero notare che l’utilizzo della funzione di ricerca, comprese le ricerche assistite da memoria, Chrome Extension . L’approccio a strati di Openai alla memoria