AI Bezpieczeństwo ANTROPIC uruchomiła dziś trwałą funkcję pamięci dla swojego Claude Chatbota, mającym na celu usprawnienie złożonych przepływów pracy dla profesjonalnych użytkowników. Od 12 września sztuczna inteligencja automatycznie zapamięta szczegóły projektu i preferencje użytkowników w rozmowach, eliminując potrzebę ciągłego ponownego eksploatacji kontekstu.
Ta znacząca aktualizacja jest wdrażana wyłącznie do zespołu Claude’a, a subskrybentami AI.
Wraz z tym antropikiem wprowadzonym do „incognito czat”. Przeniesienie pozycjonuje Claude do lepszego konkurowania z rywalami, koncentrując się na wydajności klasy korporacyjnej.
od wycofania na demand do trwałej pamięci
uruchom oznacza znaczącą ewolucję z poprzedniej funkcji pamięci Claude’a. W sierpniu Anthropic wprowadził bardziej podstawowy, inicjowany przez użytkownika system wycofania.
, że wcześniejsza wersja przeszukała wcześniejsze czaty dopiero po wyświetleniu monitu. Dla użytkowników w projektach wielu sesji stary system był przydatnym, ale ręcznym narzędziem. Wymagało to, aby zapamiętać, który czat z przeszłości zawierał kluczowe szczegóły.
Nowa trwała pamięć automatyzuje to, działając bardziej jak partner projektu, który zachowuje kontekst bez konieczności stałych przypomnień.
Nowy system jest prawdziwą trwałą pamięcią, która aktywnie uczy się z interakcji. To przejście z narzędzia wyszukiwania ręcznego do automatycznego silnika wycofania jest kluczowym krokiem, odnoszącym się do kluczowej luki funkcjonalności po raz pierwszy wyróżnionej, gdy funkcja została odkryta w czerwcu w czerwcu.
skupienie się na kontroli przedsiębiorstwa i prywatności
Anthropic Anthropic jest zawierającą nową zdolność wokół jego podstawowych zasad bezpieczeństwa i kontroli użytkownika. Administratorzy mogą to wyłączyć dla całej swojej organizacji. Dotyczy to kluczowej troski dla firm zajmujących się poufnymi informacjami.
Aby zapobiec krwawieniu informacji między różnymi przepływami pracy, Claude tworzy teraz osobne, izolowane wspomnienia dla każdego odrębnego projektu. Użytkownicy otrzymują również szczegółową kontrolę za pomocą „podsumowania pamięci”, które mogą przeglądać i edytować, aby wyświetlić to, co zachowuje AI. Ogłoszenie
Anthropica bezpośrednio ukierunkowuje ten bóle produktywności. „Claude pamięta teraz twoje wcześniejsze rozmowy, dzięki czemu możesz bezproblemowo kontynuować projekty, odwoływać się do poprzednich dyskusji i opierać się na twoich pomysłach bez za każdym razem”, stwierdza firma.
To ostrożne podejście kontrolne jest znakiem rozpoznawczym strategii antropiku. Jest zgodny z ramami bezpieczeństwa, które niedawno opublikowała firma. Ta filozofia ma kluczowe znaczenie dla wizji CEO Dario Amodei, który podkreślił potrzebę nadzoru ludzkiego.
Nowy tryb incognito dodatkowo podkreśla to zaangażowanie w prywatność. Zapewnia „czyste tabliczkę” do wrażliwych burzy mózgów lub poufnych dyskusji bez wpływu na zwykłą pamięć lub historię rozmowy użytkownika.
Rasa konkurencyjna o bardziej osobistą sztuczną inteligencję
Ta aktualizacja jest bezpośrednią reakcją na eskalującą wyścig zbrojenia pamięci AI. Openai zaczął rozszerzać pamięć dla użytkowników Chatgpt Plus w maju 2024 r., Później uaktualniając ją do domyślnego odwołania się do całej historii czatu użytkownika do kwietnia 2025 r.
Google podążał podobną ścieżką, dodając pamięć krzyżową do swojego asystenta Gemini w kwietniu 2025 r. Nie jest wyprzedzeniem, Elon Musk’s Fequot Feature Feature Feature Feature Feature Membot for Groks. zróżnicowany przez silny nacisk na kontrole klasy korporacyjnej.
Ta funkcja jest częścią szerszego nacisku przez antropic, aby zbudować pakiet narzędzi na rynku profesjonalnym. Uruchomienie pamięci następuje po ostatnich wydaniach o wysokiej wartości, w tym „Claude for Financial Services” i wyspecjalizowanych „pod-agentów” dla platformy kodowania.
Podczas gdy funkcje te zwiększają produktywność, uporczywa pamięć wprowadza znaczące wyzwania bezpieczeństwa. Ryzyko szybkiego wstrzyknięcia, w których złośliwe instrukcje ukryte w dokumentach mogą uszkodzić pamięć AI, pozostaje poważnym problemem w całym branży.
poprzez połączenie zaawansowanych możliwości z przezroczystą kontrolą, antropiczne ma na celu budowanie zaufania z profesjonalną bazą użytkowników.
ostatecznie, uruchomienie trwałej pamięci jest kluczowym miastem dla Claude. Wyrównuje pole gry na kluczowej funkcji, podwajając podstawowe wyróżniki firmy: kontrola klasy korporacyjnej i przedsiębiorstwo bezpieczeństwa.
Jak dobrze to rezonuje z firmami na zatłoczonym rynku, będzie kluczowym testem dla celowego, zmierzonego podejścia do AI.
.