Habang ang OpenAi ay patuloy na mapahusay ang mga kakayahan ng ChatGPT, ang mga karanasan ng gumagamit ay nagtatampok ng patuloy na mga hamon na may katatagan ng session, pagpapanatili ng memorya, at pagganap, lalo na sa kumplikado, dokumento-heavy workflows. Ang Mid-Abril 2025 ng gumagamit ng `SKS38317`, na kinilala bilang isang 18-taong-gulang na mag-aaral sa South Korea, ay nagbibigay ng isang butil na pagtingin sa mga isyung ito. Ang imbakan, na inilarawan ng may-akda bilang isang”cache failure and memory workaround case study gamit ang GPT-4O (isinulat ng isang 18-taong-gulang na mag-aaral mula sa Korea),”ay nagpapagaan sa mga praktikal na hamon na ang kasunod na mga pagpapahusay ng memorya ng OpenAi ay naglalayong matugunan. Maraming mga kritikal na pagkabigo sa pagpapatakbo na sinusunod habang gumagamit ng GPT-4O. Ayon sa Ang iminungkahi ng gumagamit ay dapat”payagan ang mga gumagamit na mapanatili ang isang limitadong bilang ng mga nakaraang bersyon ng dokumento-tulad ng 1 o 2-sa halip na awtomatikong tinanggal ang lahat ng mga lumang bersyon. Sa isip, maaari itong gawin na mai-configure…”ang imbakan ay naglalaman din ng isang file sanggunian ang buong kasaysayan ng chat ng gumagamit
Maya-maya, ang tampok na”memorya na may paghahanap”ay detalyado sa Mga Tala ng Paglabas ng Kumpanya, kasaysayan, makokontrol sa pamamagitan ng mga setting na detalyado sa memorya ng faq ) upang ipasadya ang mga query sa paghahanap sa web na isinasagawa sa pamamagitan ng mga kasosyo tulad ng Microsoft Bing. Pinahusay na pangangatuwiran. Mahalaga na makilala ang mga tampok na memorya na nakaharap sa gumagamit mula sa hiwalay na, server-side-side prompt caching Ginamit sa pamamagitan ng API para sa pag-optimize ng pagganap sa paulit-ulit na mga tawag.
Habang pinapabuti ang karanasan ng gumagamit, ang patuloy na mga kakayahan sa memorya ay likas na nagpapakilala sa mga pagsasaalang-alang sa seguridad. Ang prompt injection, kung saan ang mga nakakahamak na tagubilin na nakatago sa loob ng pag-input ng gumagamit o panlabas na mga mapagkukunan ng data ay manipulahin ang pag-uugali ng LLM, ay niraranggo bilang isang nangungunang panganib ng seguridad ng AI tulad ng OWASP, ang pag-agaw ng mga modelo ng kahirapan ay sa paghihiwalay ng mga pinagkakatiwalaang mga tagubilin mula sa hindi pinagkakatiwalaang data. Vulnerability noong 2024. a June arxiv paper ginalugad kung paano mapadali ng memorya href=”https://embracether.com/blog/posts/2024/chatgpt-macos-app-persistent-data-exfiltration/”target=”_ blangko”> isa pang ulat Itinaas ang iniksyon ng patuloy na”spyware”na tagubilin sa memorya ng MACOS app sa pamamagitan ng malisyosong mga dokumento, na nagbibigay ng potensyal na pangmatagalang data ng pakikipag-chat. Iniulat ni Openai na ang tiyak na kahinaan ng macOS, ang pangunahing hamon sa pag-secure ng patuloy na memorya ng AI ay nananatiling isang pag-aalala sa industriya, na nakakaapekto sa mga katulad na tampok mula sa mga kakumpitensya tulad ng Google Gemini, Microsoft Copilot, at Xai’s Grok. Sinasabi ng kumpanya na ang mga tiyak na detalye ng account ng gumagamit ay hindi ibinahagi sa mga kasosyo sa paghahanap, kahit na ang mga pangkalahatang data ng lokasyon na inilihin mula sa mga IP address ay maaaring magamit para sa pagpapabuti ng kaugnayan ng resulta. Ang pag-rollout ng memorya na may paghahanap ay unti-unti. Ang mga bayad na tagasuskribi ay dapat tandaan na ang paggamit ng function ng paghahanap, kabilang ang mga paghahanap na tinulungan ng memorya, Chrome extension .