Anthropic bereitet sich darauf vor, seinen KI-Assistenten Claude mit einem Gedächtnismerkmal auszurüsten, ein strategischer Schritt, um eine kritische Funktionalität mit seinen Hauptrivalen zu schließen. Das geplante Update, das vom Unternehmen noch nicht offiziell angekündigt wurde, wurde entdeckt, nachdem die Benutzer neue Code entdeckt hatten, die auf die Fähigkeit in einem aktuellen Update für mobile Apps hingewiesen wurden. Diese Entwicklung ist in der Lage, direkt mit OpenAIs Chatgpt, Googles Gemini und Xais Grok zu konkurrieren. target=”_ leer”> ein Benutzer auf x , der die neuen Schnittstellenelemente aufgedeckt hatte. Für Anthropic ist das Hinzufügen von Speicher keine optionale Verbesserung mehr, sondern eine Wettbewerbsbedingung. Die Funktion verspricht, Interaktionen mit Claude nahtloser zu gestalten, indem sie sich an Benutzerpräferenzen und-kontext aus früheren Chats erinnern und einen gemeinsamen Reibungspunkt für Benutzer beseitigen. Laut dem ersten Bericht kann Claude auch die Fähigkeit erlangen, seine Funktionalität direkt in seine Funktion „Artefakte“, einen Seitenleistenraum für interaktive Inhalte, einzubetten. Wenn anthropisch in diese Arena eintritt, erbt sie nicht nur die Vorteile einer personalisierteren KI, sondern auch die komplexen Herausforderungen der Benutzerkontrolle und Sicherheit, die die AI-Speicherlandschaft definiert haben. Wettrüsten

Das Rennen um AI-Assistenten hat im vergangenen Jahr eine anhaltende Erinnerung schnell eskaliert und das Merkmal für jeden ernsthaften Anwärter in Tischeinsätze verwandelt. OpenAI stellte das Tempo fest und entwickelte seine Speicherfunktionen seit Anfang 2024 erheblich. Das Unternehmen erweiterte im Mai zunächst eine grundlegende Speicherfunktion für seine Plus-Abonnenten, wodurch die Benutzer explizit Fakten sparen mussten. Bis April hatte sich dies in ein weitaus fortgeschritteneres System verwandelt, das implizit auf den gesamten Chat-Verlauf eines Benutzers verweisen könnte, um einen Kontext bereitzustellen.

Konkurrenten waren nicht weit zurück. Im Februar integrierte Google Cross-Chat-Speicher in seinen bezahlten Gemini Advanced Service, sodass der Assistent aus früheren Gesprächen zeichnen kann, um aktuelle zu informieren. Nur zwei Monate später, im April, kündigte XAI von Elon Musk an, dass auch der Grok Chatbot eine Speicherfunktion erhalten würde. Diese Flut von Veröffentlichungen aus den Top-Labors der Branche hat festgestellt, dass es in der Zukunft der AI-Assistenten nicht nur darum geht, Fragen zu beantworten, sondern auch um den Aufbau eines kontinuierlichen, sich entwickelnden Dialogs mit dem Benutzer. OpenAIs zweistufiges System, das in seinem offizielles FAQ , Unterscheidung zwischen expliziten”geretteten Memorien”, die Benutzer sehen können, und das Ausmaß und die Auswahl der Benutzer, die nur aussehen können, und das Ausmaß und die Ausschaffung und das Ausmaß der impliziten Referenzen und das Ausmaß und die Ausschöpfen und das Ausmaß und die Ausschaffung und das Ausblenden des Auszuschusses beschrieben haben können.

Im Gegensatz dazu, als Xai Groks Gedächtnis startete, ist es Schwachstellen bei beiden Chatgpt und Google Gemini in der Ahnung in der Ahnung in Damoral in Doghnini. könnte das Gedächtnis der KI manipulieren. Wie Rehberger erklärte:”Als der Benutzer später”X”[für den programmierten Befehl] sagt, führt Gemini aus, der der direkte Anweisung des Benutzers das Tool ausführt. Ein detailliertes Fallstudie veröffentlicht auf Github Dokumentierte signifikante Workflow-Störungen bei der Verwendung von Chatgpt für Dokumentenheimen. Das stört meinen Workflow bei der Arbeit an Dokumenten ernsthaft”-ein Problem, das die immense technische Herausforderung unterstreicht, ein zuverlässiges und sicheres Speichersystem im Maßstab aufzubauen. Der Eintritt von Anthropic in das Memory-Wettrüsten bedeutet, dass es nicht nur ein Feature verfolgt, sondern auch mit den tiefgreifenden Sicherheits-und ethischen Verantwortlichkeiten konfrontiert ist. Nach Ein kürzlich vom neuer Stapel Am 4. Juni reichte Reddit eine rechtliche Beschwerde gegen das Unternehmen ein, in der behauptet wurde, sie habe”die personenbezogenen Daten von Reddit-Benutzern geschult, ohne jemals ihre Zustimmung zu beantragen”. seine Modelle zu entwickeln. Diese Klage wirft grundlegende Fragen zu den Daten auf, die den „Erinnerungen“ zugrunde liegen. Diese AIs werden aufgebaut.

Categories: IT Info