o OpenAI está aumentando o ChatGPT com uma capacidade de recall, permitindo que o assistente de inteligência artificial se baseie nas interações anteriores dos usuários no texto, voz e geração de imagens para moldar suas respostas atuais. A nova função de memória tem como alvo o aumento da personalização e da eficiência de conversação, lembrando que os usuários de contexto compartilharam anteriormente.

Inicialmente, esta atualização é acessível aos assinantes Chatgpt Pro e Plus, embora os usuários nos países do Reino Unido, UE e EFTA (Islândia, Liechtenstein, Noruega, Suíça) sofrem um atraso devido a avaliações regulatórias pendentes. Esse desenvolvimento segue a adição do Google de um recurso de memória semelhante ao seu assistente de gêmeos no início deste ano. Target=”_ Blank”> FAQ oficial do OpenAI . “Memórias salvas”permitem que os usuários diga explicitamente fatos para lembrar, como preferências, ou a IA pode economizar automaticamente detalhes que identifica como útil durante um bate-papo. Os usuários podem visualizar e excluir essas memórias salvas específicas individualmente nas configurações.

Importante, a exclusão de um bate-papo não remove as memórias salvadas; Eles persistem separadamente e exigem exclusão direta. Esse sistema se baseia em um recurso anterior introduzido em 2024 que exigia que os usuários direcionassem explicitamente as ações de memória. Embora os usuários possam desativar completamente a referência do histórico de bate-papo (que os estados do OpenAI levam à exclusão dessas informações implicitamente coletadas de seus sistemas dentro de 30 dias), eles não podem visualizar ou excluir seletivamente as idéias obtidas dessa maneira. Desativar as “memórias salvas” também desativa automaticamente a referência do histórico de bate-papo. Atualmente, os usuários gratuitos de camadas só têm acesso à função explícita de”memórias salvas”. pic.twitter.com/s9brwl94iy

-OpenAi (@Openai) 10 de abril, 2025

para conversas href=”https://help.openai.com/en/articles/8914046-temporary-chat-daq”Target=”_ Blank”>”Opção temporária” Itimpere a memória e o treinamento de modelos, embora o OpenAi reserve o direito de reter cópias por até 30 dias para verificações de segurança. GPTs personalizados continuarão apresentando seus próprios sistemas de memória distintos , separados da memória principal do usuário, se o gpTer Betilled.

O objetivo principal do recurso de memória, de acordo com o OpenAI, é eliminar o atrito do contexto repetido, fazendo com que as interações pareçam mais contínuas e naturais. Isso aborda uma reclamação comum de usuário, principalmente para projetos complexos de várias sessões.

integra-se às modalidades existentes do ChatGPT: para interações de voz, que viu a disponibilidade da Web e as melhorias de fluxo no final de março de 2025, a memória permite que a IA mantenha threads de conversação. Da mesma forma, para o recurso de geração de imagem GPT-4O integrado, a memória pode potencialmente lembrar preferências ou sujeitos estilísticos. Enquadrando a direção a longo prazo do recurso, Altman afirmou em x: “Este é um recurso surpreendentemente ótimo da IMO e aponta para algo que estamos entusiasmados: sistemas de IA que o conhecem ao longo da sua vida e tornamos extremamente úteis e personalizados.”

Temos uma memória muito aprimorada em uma memória que pode ser referenciada em que as suas conversas passadas,

Pensting, que não há referência,

Temos uma memória muito aprimorada em um chatgpt. Estamos empolgados com: sistemas de IA que o conhecem ao longo da sua vida e se tornam extremamente úteis e personalizados. 2025

Contexto e considerações de capacidade de lançamento

A implantação inicial se concentra no pagamento de assinantes, refletindo potencialmente as demandas de recursos da referência contínua de memória. Enquanto o OpenAI citou revisões regulatórias para as atuais limitações regionais, o CEO Sam Altman também reconheceu o atrito operacional potencial no início de abril, publicando em X que os usuários”devem esperar que novos lançamentos do OpenAI sejam atrasados, o que é interrompido e, em vez, o que se destaca, incluindo o que é o que é lento, incluindo o que é lento, incluindo os que se liberam, incluindo os que se liberam, incluindo os que se liberam, incluindo os relatórios de coda-bate-papo. O3, O4-Mini e um potencial GPT-4.1. Isso reverteu um plano de fevereiro para mesclar O3 para o GPT-5, com Altman citando uma decisão de “dissociar modelos de raciocínio e modelos de bate-papo/conclusão.”

Categories: IT Info