AI Company Anthropic hat eine Speicherfunktion für seinen Claude-Chatbot eingeführt, mit dem Interaktionen effizienter gestaltet werden sollen. Mit der neuen Fähigkeit, die am 11. August angekündigt wurde, kann die KI frühere Konversationen durchsuchen und referenzieren, wenn sie von einem Benutzer aufgefordert werden und ihnen helfen, Projekte ohne Wiederholung von Informationen fortzusetzen. Im Gegensatz zum anhaltenden Gedächtnis von Konkurrenten wie dem ChatGPT von OpenAI ist die Version von Anthropic benutzerversorgt. Dies positioniert es als transparentere und kontrolliertere Option. Es wird zunächst zu bezahlten Abonnenten auf dem Max-, Team-und Enterprise-Tiers ausgestattet. Anthropic ist darauf, dass sein absichtlicher, von Privatsphäre zentrierter Ansatz eine signifikante Nische gegen aggressivere Konkurrenten herausfordern kann. Funktioniert

Die Mechanik der Funktion ist unkompliziert. Benutzer können Claude dazu veranlassen, Informationen aus früheren Diskussionen abzurufen, und die KI wird seine Geschichte für das aktuelle Chat für den aktuellen Chat für den aktuellen Chat für den aktuellen Chat für den aktuellen Chat für den aktuellen Chat anbieten. Diese Funktionalität ist standardmäßig aktiviert, kann jedoch in den Profileinstellungen umgeschaltet werden. Dieser All-Or-Nothing-Ansatz unterstreicht das aktuelle Design der Feature und priorisiert die Einfachheit vor der körnigen Kontrolle einzelner Erinnerungen, ein potenzieller Bereich für die zukünftige Verfeinerung. Bewegen Sie sich in einem Markt, in dem die KI-Rückruffähigkeiten sowohl Aufregung als auch Kontroversen ausgelöst haben. Anstatt einfach die anhaltende, immer zuständige Erinnerung an seine Konkurrenten zu replizieren, positioniert das Unternehmen seine Implementierung als eine nachdenklichere und privatistische Alternative. Diese Messaging konzentriert sich genau auf die Produktivität und den Workflow-Kontinuität, ein wichtiger Schmerzpunkt für professionelle Benutzer, die sich an Projekten mit mehreren Sitzungen befassen. Laut dem anthropischen Sprecher Ryan Donegan”ist es noch keine anhaltende Speicherfunktion wie das Chatgpt von OpenAI. Claude wird Ihre früheren Chats nur abrufen und verweisen, wenn Sie es fragen, und es erstellt kein Benutzerprofil.”Dieses On-Demand-Modell stellt sicher, dass der Benutzer die endgültige Autorität bleibt, wann und wie seine Konversationsgeschichte verwendet wird. Indem der Gedächtnis eher eine explizite, von Benutzer ausgelöste Aktion als einen impliziten Hintergrundprozess macht, setzt Anthropic seine Sicherheit zuerst die Rhetorik in die Praxis um. Es ist ein direkter Kontrapunkt zu Systemen, bei dem Benutzer möglicherweise nicht sicher sind, was die KI über sie weiß oder wie sie es gelernt hat. Wie in seiner Support-Dokumentation beschrieben, bietet Anthropic bereits Tools wie Konto-weite Profileinstellungen und projektspezifische Anweisungen an, um Claude einen Kontext zu bieten. Die neue Chat-Suchfunktion ist daher keine pauschale Speicherlösung, sondern ein spezifisches Instrument zum Abrufen historischer Informationen und ergänzt andere Methoden, um das Verhalten der KI zu leiten. Der Manager und die Fähigkeit, den historischen Kontext selektiv einzuziehen, ist ein weiteres Tool, das einen kollaborativen, von Menschen betroffenen Ansatz zur KI-Interaktion verstärkt. Die Fähigkeit, sich an den Kontext über die Sitzungen hinweg zu erinnern, wird als wichtiger Treiber für die Nutzerbindung angesehen. Jeder Hauptakteur bietet nun eine Form dieser Funktion an, jedoch mit unterschiedlichen Philosophien. Dieser Ansatz soll im Laufe der Zeit ein umfassendes Verständnis des Benutzers aufbauen. Von einem breiteren Druck auf Unternehmensbereitetools

ist diese neue Funktion kein isoliertes Produkt-Update, sondern Teil einer breiteren, absichtlichen Strategie von Anthropic. Das Unternehmen baut stetig eine Reihe von Tools für Unternehmensqualität auf, die sich auf Sicherheit, Kontrolle und praktische Geschäftsanwendung konzentrieren. Dies entspricht der Vision von CEO Dario Amodei, in der „wir in eine Welt gehen, in der ein menschlicher Entwickler eine Flotte von Agenten leiten kann, aber ich denke, dass eine fortgesetzte menschliche Beteiligung für die Qualitätskontrolle wichtig sein wird…“. Im Juli 2025 zielte das Unternehmen mit „Claude for Financial Services“ an die Wall Street und veranlasste”Subagenten”für seine Claude-Code-Plattform, um komplexe Entwickler-Workflows zu optimieren. Anfang August veröffentlichte Anthropic einen neuen Rahmen für die Entwicklung vertrauenswürdiger KI-Agenten. Dies geschah kurz nach der Veröffentlichung von Claude Opus 4.1, einem Update, das sich auf die Verbesserung der Codierung und Sicherheit in vorhandenen Protokollen konzentrierte. Durch die Verbesserung der Fähigkeiten mit transparenten Steuerelementen ist anthropisch ein Vertrauen mit einer professionellen Benutzerbasis aufbauen, die Zuverlässigkeit in einem zunehmend flüchtigen AI-Ökosystem so stark wie Rohleistung schätzt.