Die in Paris ansässige Mistral AI hat eine Speicherfunktion für den LE-Chat-Assistenten gestartet und ist der neueste wichtige Spieler, der im zunehmend überfüllten Bereich der personalisierten KI an Wettkämpfen teilnimmt. Fähigkeit.
Dieser Start signalisiert einen klaren Trend zu persönlicheren, kontextbewussten AI-Assistenten, da sich der Kampf um die Nutzungsloyalität intensiviert. Es kommt auch als Teil einer doppelten Strategie an, gepaart mit der Veröffentlichung von über 20 Anschlüssen von Unternehmensgrads. Die Funktion „Erinnerungen“ ist eine Opt-in-Beta, die sicherstellt, dass Benutzer aktiv mit ihren Daten zustimmen. Das Unternehmen bietet detaillierte Dokumentation der Datenhandlingspraktiken . Dies positioniert Le Chat als nachdenkliche Alternative in einem Markt, in dem der KI-Rückruf sowohl Aufregung als auch bedeutende Privatsphäre ausgelöst hat. Auf der einen Seite sind Openai und Google, die ein anhaltendes, immer-on-Modell angenommen haben. OpenAI hat Chatgpt im April 2025 verbessert, um den gesamten Chat-Verlauf eines Benutzers implizit zu verweisen. Michael Siliski, Senior Director von Google für die Gemini-App, sagte, das Ziel sei: „Die Gemini-App kann jetzt auf Ihre früheren Chats verweisen, um Ihre Vorlieben zu erlernen und personalisiertere Antworten zu liefern, je mehr Sie sie verwenden. Die”immer”-Camp-Wetten auf die Erstellung eines tief integrierten, proaktiven Assistenten, der die Benutzeranforderungen antizipiert. Das CAMP-„Benutzer initiierte“ priorisiert die Transparenz und setzt darauf, dass Benutzer die Vorhersehbarkeit und Kontrolle über autonomes Lernen bewerten. While its memory is persistent, spokesperson Elijah Lawal said that “equally crucial is giving you easy controls to choose the experience that’s best for you, so you can turn this feature on and off at any time,”pointing to its “Temporary Die Chats”Feature als Beweis. Anthropic hat im August 2025 ein Speichermerkmal für Claude eingeführt, das in starkem Kontrast zu den persistenten Modellen steht. Laut Sprecher Ryan Donegan ist es noch kein anhaltendes Speicherfunktion wie das OpenAI-Chatgpt. Claude ruft nur auf Ihre früheren Chats zurück, wenn Sie das Bitten nicht erstellen. Rahmen. CEO Dario Amodei hat diesen menschlichen Ansatz als wesentlich eingerahmt und erklärt: „Wir gehen in eine Welt, in der ein menschlicher Entwickler eine Flotte von Agenten verwalten kann, aber ich denke, dass eine fortgesetzte menschliche Beteiligung für die Qualitätskontrolle wichtig sein wird…“
Die Wettbewerbslandschaft ist jetzt gut definiert. Microsoft Integrierte Speicher in Copilot im April 2025, und Elon Musks XAI hat im selben Monat das gleiche gemacht und einen Markt erstellt, auf dem das Gedächtnis jetzt eine Funktion für Tabellenstöcke ist. Es ist auch ein bedeutendes Unternehmensspiel. Der gleichzeitige Start von über 20 „MCP-Anschlüssen“ für Werkzeuge wie Github, Snowflake und Asana unterstreicht diesen Ehrgeiz. Diese Anschlüsse verwandeln Le Chat in einen zentralen Hub für Business-Workflows. Diese agentenähnliche Fähigkeit ermöglicht es der KI, sich von der einfachen Beantwortung von Fragen zur aktiven Ausführung von Aufgaben innerhalb des vorhandenen Software-Ökosystems eines Benutzers zu bewegen. Die Bequemlichkeit des KI-Gedächtnisses schafft ein wertvolles und verletzliches Ziel für böswillige Schauspieler. Cybersecurity-Forscher haben diese Risiken wiederholt demonstriert. Der Forscher Johann Rehberger erklärte, durch Einbettung ruhender Befehle:”Wenn der Benutzer später”x”[für den programmierten Befehl] sagt, hat Gemini, der glaubt, dass es den direkten Anweisungen des Benutzers folgt, das Tool ausführt”, das den Speicher der AI beeinträchtigt. Eine Sicherheitsanfälligkeit im Speicher von Chatgpt ermöglichte das Peeling vertraulicher Daten Ende 2024. In einem kürzlich durchgeführten Bericht des Sicherheitsunternehmens Pynt wurde festgestellt, dass Ein von zehn MCP-Plugins ist vollständig ausbrüsenbar . Ein Angriff ist nicht nur ein einmaliger Misserfolg. Es kann die Wissensbasis der KI vergiften und zu wiederholten Fehlern oder subtilen Datenlecks im Laufe der Zeit führen. Dies macht die Integrität der gespeicherten „Erinnerungen“ zu einer kritischen Sicherheitsgrenze für alle Anbieter. Das Ausgleich von Innovationen mit User Trust bleibt die kritische Herausforderung in dieser neuen Ära personalisierter KI.