Sementara openai terus meningkatkan kemampuan chatgpt, pengalaman pengguna menyoroti tantangan yang terus-menerus dengan stabilitas sesi, retensi memori, dan kinerja, khususnya selama alur kerja yang kompleks, dokumen-berat. Pada pertengahan April 2025 oleh pengguna `SKS38317`, diidentifikasi sebagai siswa Korea Selatan berusia 18 tahun, memberikan pandangan granular tentang masalah ini. Repositori, yang dijelaskan oleh penulis sebagai”kegagalan cache dan studi kasus solusi memori menggunakan GPT-4O (ditulis oleh seorang siswa berusia 18 tahun dari Korea),”menyoroti tantangan praktis bahwa peningkatan memori Openai yang bertujuan untuk mengatasi. menguraikan beberapa kegagalan operasional kritis yang diamati saat menggunakan GPT-4O. Menurut Kegagalan rendering PDF disalahtafsirkan oleh ChatGPT sebagai operasi yang berhasil. Ini dilaporkan menyebabkan tanggapan yang salah disimpan dalam cache sistem, kemudian memicu loop yang berulang dan tidak produktif saat chatbot berusaha menggunakan kembali entri cache yang rusak. Masalah lebih lanjut yang didokumentasikan termasuk penyimpanan berlebihan dari beberapa versi dokumen yang diedit dalam konteks sesi, menciptakan konflik konten, dan penundaan respons yang nyata dan perlambatan sesi, yang dikaitkan dengan pengguna dengan cache yang berlebihan.
Siswa mengukur dampaknya sebelum mencoba memperbaiki diri: PDF LOOPS terjadi lebih dari empat kali, yang memerlukan 4 jam, persyaratan 4-Persyaratan 4-Dokumen yang berlebihan rata-rata lima hingga enam per sesi; perkiraan beban token cache membengkak antara 17.000 dan 18.500 token; dan frasa redundan merupakan sekitar 22% dari cache ini.
Dihadapkan dengan gangguan alur kerja ini-pengguna mencatat,”Memulai sesi baru menghapus riwayat percakapan, yang dengan serius mengganggu alur kerja saya ketika bekerja pada> —mereka mengimplementasikan keluaran yang melibatkan analisis sesi dan logika circuits ke dalam pujian. Dilaporkan menghasilkan perbaikan substansial: frekuensi loop PDF dibagi dua (-50%), retry frekuensi turun sekitar 66% (ke ≤2 kejadian), jumlah dokumen redundan turun 50-60% (menjadi ≤3), reden red-moad 7,7% (di bawah 14.200 TOKENS), p.
Pengguna menyarankan openai harus”mengizinkan pengguna untuk mempertahankan sejumlah versi dokumen sebelumnya-seperti 1 atau 2-lebih dari secara otomatis menghapus semua versi lama. Idealnya, ini dapat dibuat dapat dikonfigurasi…”Repositori juga berisi file