ANTROPIC przygotowuje się do wyposażenia swojego asystenta AI, Claude’a, z funkcją pamięci, strategicznym ruchem w celu zamknięcia krytycznej luki funkcjonalności z głównymi rywalami. Planowana aktualizacja, jeszcze oficjalnie ogłoszona przez firmę, została odkryta po tym, jak użytkownicy zauważyli nowy kod odnoszący się do funkcji w najnowszej aktualizacji aplikacji mobilnej. Ten rozwój pozycja Claude’a do bezpośredniej konkurowania z Chatgpt Openai, Google’s Gemini i Xai’s Grok, z których wszystkie sprawiły, że konwersacyjny przypomnienie było centralnym filarem ich doświadczenia. Target=”_ puste”> Użytkownik na x , który odkrył nowe elementy interfejsu. W przypadku antropiku dodanie pamięci nie jest już opcjonalnym ulepszeniem, ale koniecznością konkurencyjną. Funkcja obiecuje, że interakcje z Claude są bardziej płynne, umożliwiając zapamiętywanie preferencji użytkowników i kontekst z poprzednich czatów, eliminując wspólny punkt tarcia dla użytkowników.

Poza prostym przywołaniem aktualizacja sugeruje również, że planowana jest głębsza integracja. Zgodnie z początkowym raportem Claude może również uzyskać zdolność do osadzenia swojej funkcjonalności bezpośrednio w funkcji „artefaktów”, przestrzeni paska bocznego dla treści interaktywnych. Gdy antropijne wchodzi na tę arenę, dziedziczy nie tylko korzyści płynące z bardziej spersonalizowanej sztucznej inteligencji, ale także złożone wyzwania związane z kontrolą użytkowników i bezpieczeństwa, które zdefiniowały krajobraz pamięci AI.

Wyścig o nadanie asystentom AI uporczywa pamięć gwałtownie się eskalowała w ciągu ostatniego roku, zamieniając funkcję w stawki stołowe dla każdego poważnego pretendenta. Openai ustawił tempo, znacznie ewoluując swoje możliwości pamięci od początku 2024 r. Firma najpierw rozszerzyła podstawową funkcję pamięci dla swoich subskrybentów Plus w maju, co wymagało od użytkowników wyraźnego zapisywania faktów. Do kwietnia przekształciło to w znacznie bardziej zaawansowany system, który mógł domyślnie odwołać się do całej historii czatu użytkownika, aby zapewnić kontekst.

konkurenci nie byli daleko w tyle. W lutym Google zintegrował pamięć krzyżową z płatną usługą Advanced Advanced, umożliwiając asystentowi czerpanie z wcześniejszych rozmów w celu informowania obecnych. Zaledwie dwa miesiące później, w kwietniu, XAI Elona Muska ogłosił, że jego Grok Chatbot również otrzymuje funkcję pamięci. Ta fala wydawnictwa z najlepszych laboratoriów branży zdecydowanie ustalono, że przyszłość asystentów AI nie dotyczy tylko odpowiadania na pytania, ale także budowania ciągłego, rozwijającego się dialogu z użytkownikiem.

Funkcjonalność i kontrola: ACT Balancing

jest uniwersalny, rekomendacja i stopień kontroli użytkownika. Dwupoziomowy system Openai, szczegółowo opisany w Oficjalne Faq , rozróżnia wyraźne „zapisane wspomnienia”, które użytkownicy mogą oglądać i delegować, a niejawne odniesienie do czabienia, które mogą tylko odrzucić się od stałego.

Natomiast gdy XAI uruchomił pamięć Grok, jego cuglention on x podkreślenie przejrzystości, „memory są transsparne Widzę dokładnie, co Grok wie i wybierz, o czym zapomnieć. ” Google, ze swojej strony, koncentruje się na wydajności, wyjaśniając w wpis na blogu że celem było uniemożliwienia użytkownikom przed zacieszeniem od zarysowania.

jako antropic prepara Dostarczając użytkownikom wyraźne, możliwe do zarządzania sterowanie własnymi danymi.

trwałe pamięć, trwałe ryzyko

Dodanie warstwy pamięci, jednak wprowadza wiele złożonych wyzwań związanych z bezpieczeństwem i prywatnością. Najbardziej znaczącym zagrożeniem jest szybkie zastrzyk, w którym złośliwe instrukcje ukryte w dokumentach lub innych danych mogą nakłonić sztuczną inteligencję w uszkodzeniu jego pamięci lub, co gorsza, exfiltrating poufne informacje o użytkowniku. To ryzyko nie jest teoretyczne. Badacz cyberbezpieczeństwa, Johann Rehberger, zademonstrował taki

Stabilność tych złożonych systemów również pozostaje praktyczną troską dla użytkowników. Szczegółowy Użytkownik opublikował podstawową frustrację Udokumentowano znaczące zakłócenia przepływu pracy, gdy zażywając chatgpt w historii. Poważnie zakłóca mój przepływ pracy podczas pracy nad dokumentami “-problem, który podkreśla ogromne wyzwanie techniczne polegające na budowaniu niezawodnego i bezpiecznego systemu pamięci na dużą skalę. Wejście Anthropiku do wyścigu zbrojeń pamięci oznacza, że ​​nie tylko gonisz funkcję, ale także konfrontacja z głębokim bezpieczeństwem i etycznym obowiązkami, które z nim związane są.

Te obawy dotyczące bezpieczeństwa są połączone szerszymi pytaniami dotyczącymi prywatności danych i etyki rozwoju AI. Według ostatni artykuł z nowego stosu , antropic już boryka się ze swoimi praktykami danych. 4 czerwca Reddit złożył skargę prawną przeciwko firmie, twierdząc, że „przeszkolił dane osobowe użytkowników Reddit, nigdy nie prosząc o ich zgodę”. opracować swoje modele. Ten pozew zbiera podstawowe pytania dotyczące danych leżących u podstaw „wspomnień” te AI są budowane.

Categories: IT Info