Openai está aumentando el chatgpt con una capacidad de recuperación, lo que permite que el asistente de inteligencia artificial recurre a las interacciones previas de los usuarios a través de texto, voz y generación de imágenes para dar forma a sus respuestas actuales. La nueva función de memoria se dirige a una mayor personalización y eficiencia de conversación al recordar que los usuarios de contexto han compartido previamente.

Inicialmente, esta actualización es accesible para los suscriptores de ChatGPT Pro y Plus, aunque los usuarios de los países del Reino Unido, la UE y la ECA (Islandia, Liechtenstein, Noruega, Suiza) experimentarán un retraso debido a las evaluaciones regulatorias pendientes. Este desarrollo sigue la incorporación de Google de una función de memoria similar a su asistente de Géminis a principios de este año.

El control de usuarios y la mecánica de memoria explicada

La memoria de Chatgpt funciona de dos maneras distintas, como se detalla en Preguntas frecuentes oficiales de OpenAI .”Memorias guardadas”permiten a los usuarios decir explícitamente los hechos de ChatGPT que recuerden, como las preferencias, o la IA podría guardar automáticamente los detalles que identifica como útil durante un chat. Los usuarios pueden ver y eliminar estas memorias guardadas específicas individualmente dentro de la configuración.

Lo más importante, eliminar un chat no elimina los memorias guardados de él; Persisten por separado y requieren eliminación directa. Este sistema se basa en una capacidad previa introducida en 2024 que requería que los usuarios dirijan explícitamente las acciones de memoria.

El segundo mecanismo implica ChatGPT hacer referencia implícitamente al”historial de chat”más amplio del usuario para informar sus respuestas y mejorar las conversaciones con el tiempo. Si bien los usuarios pueden deshabilitar por completo la referencia del historial de chat (que los estados de OpenAI conducen a la eliminación de esta información implícitamente recopilada de sus sistemas dentro de los 30 días), no pueden ver o eliminar selectivamente las ideas obtenidas de esta manera. Desactivar”Memorias guardadas”también deshabilita automáticamente la referencia del historial de chat. Actualmente, los usuarios de nivel gratuito solo tienen acceso a la función explícita”Memorias guardadas”.

A partir de hoy, la memoria en ChatGPT ahora puede hacer referencia a todos sus chats pasados ​​para proporcionar respuestas más personalizadas, aprovechando sus preferencias e intereses para que sea aún más útil para escribir, obtener asesoramiento, aprendizaje y más allá. pic.twitter.com/s9brwl94iy

-OpenAi (@openai) 10 de abril, 2025

para conversaciones discretas, a opción de”chat temporal” Evita la capacitación de memoria y modelo, aunque Openai se reserva el derecho a retener las copias durante hasta 30 días para las verificaciones de seguridad. Los gpts personalizados continuarán presentando sus propios sistemas de memoria distintos , separados de la memoria de chatgpt principal del usuario, si está habilitado por el volante GPT.

hacia un AI más personalizado El objetivo central de la función de memoria, según OpenAI, es eliminar la fricción de repetir el contexto, haciendo que las interacciones se sientan más continuas y naturales. Esto aborda una queja de usuario común, particularmente para proyectos complejos de múltiples sesiones.

Se integra con las modalidades existentes de ChatGPT: para las interacciones de voz, que vio la disponibilidad web y las mejoras de flujo a fines de marzo de 2025, la memoria permite que la IA mantenga hilos de conversación. Del mismo modo, para la función integrada de generación de imágenes GPT-4O, la memoria podría recordar las preferencias o sujetos estilísticos.

OpenAI reconoce que las implicaciones de la privacidad, indicando que los esfuerzos están en marcha para evitar que la IA retenga de manera proactiva información confidencial a menos que se instruya y confirme que la empresa y los datos de los usuarios del equipo se excluyen de los modelos de entrenamiento. Enmarcando la dirección a más largo plazo de la función, Altman declaró en X:”Esta es una característica sorprendentemente grande de la OMI, y señala algo que estamos entusiasmados: los sistemas de IA que lo conocen durante su vida, y se vuelven extremadamente útiles y personalizados”. están entusiasmados: los sistemas de inteligencia artificial que lo conocen durante su vida y se vuelven extremadamente útiles y personalizados.

-Sam Altman (@sama)

Consideraciones de contexto y capacidad de despliegue

La implementación inicial se centra en pagar suscriptores, lo que puede reflejar las demandas de recursos de la referencia de memoria continua. Si bien Operai citó revisiones regulatorias para las limitaciones regionales actuales, el CEO Sam Altman también reconoció la fricción operativa potencial a principios de abril, publicando en X que los usuarios”deben esperar que los nuevos lanzamientos de OpenAI se retrasen, cosas para romper, y para que el servicio a veces sea lento, ya que lidiaremos con los desafíos de capacidad”.

Esto viene a los informes de los códigos en los descubrimientos de Code en el CHATGPT. O3, O4-Mini, y un potencial GPT-4.1.

Altman confirmó el 4 de abril un”cambio de planes”, retrasando el anticipado lanzamiento de GPT-5″unos meses”para priorizar la liberación de los modelos de razonamiento O3 y O4-Mini primero. Esto revirtió un plan desde febrero para fusionar O3 en GPT-5, con Altman citando la decisión de”modelos de razonamiento desacoplables y modelos de chat/finalización”.