Enquanto o OpenAI continua a aprimorar os recursos do ChatGPT, as experiências do usuário destacam desafios persistentes com a estabilidade da sessão, a retenção de memória e o desempenho, principalmente durante fluxos de trabalho complexos e pesados. Em meados de abril de 2025, pelo usuário `sks38317`, identificado como um estudante sul-coreano de 18 anos, fornece uma visão granular desses problemas. The repository, described by the author as a “Cache failure and memory workaround case study using GPT-4o (authored by a 18-years-old student from Korea),”sheds light on the practical challenges that OpenAI’s subsequent memory enhancements aim to address.

User-Documented Failures and Performance Metrics

The `sks38317` repository descreve várias falhas operacionais críticas observadas durante o uso do GPT-4O. De acordo com o O usuário sugeriu que o OpenAI deveria “permitir que os usuários mantenham um número limitado de versões anteriores de documentos-como 1 ou 2-em vez de excluir automaticamente todas as versões antigas. Idealmente, isso pode ser configurável…”O repositório também contém um arquivo company release notes, which allows ChatGPT to use stored memory (both explicit facts and implicit context from chat history, controllable via Configurações detalhadas no Memory Faq ) para personalizar as consultas da Web realizadas por meio de parceiros do Microsoft. É importante distinguir esses recursos de memória voltados para o usuário do lado separado do OpenAI, cache imediato Usado através da API para a otimização de performance em repetitivos. Riscos?

Ao melhorar a experiência do usuário, os recursos de memória persistentes introduzem inerentemente considerações de segurança. A injeção imediata, onde instruções maliciosas ocultas na entrada do usuário ou fontes de dados externas manipulam o comportamento do LLM, são classificadas como um risco de segurança de IA superior por grupos como OWASP, alavancando os modelos de dificuldade em separar as instruções confiáveis ​​de dados não confiáveis. Vulnerabilidades em 2024. a June Arxiv Paper Explorou como a memória poderia facilitar os ataques de dados, enquanto um Outro relatório destacou a injeção de mecâncias de spyware persistente.

Embora o OpenAI tenha abordado a vulnerabilidade específica do macOS, o desafio fundamental de garantir a memória persistente da IA ​​continua sendo uma preocupação em todo o setor, impactando recursos semelhantes de concorrentes como Google Gemini, Microsoft Copilot e Grok de Xai. A Companhia afirma que detalhes específicos da conta do usuário não são compartilhados com parceiros de pesquisa, embora dados generalizados de localização inferidos a partir de endereços IP possam ser usados ​​para melhorar a relevância do resultado. O lançamento da memória com a pesquisa é gradual. Os assinantes pagos devem observar que o uso da função de pesquisa, incluindo pesquisas assistidas pela memória, Extensão do Chrome .