A

Antropikus arra készül, hogy felkészítse AI asszisztense, Claude-t, egy memória funkcióval, stratégiai lépéssel, hogy megszüntesse a kritikus funkcionalitási rést a fő riválisaival. A tervezett frissítést, amelyet a vállalat még nem hivatalosan jelentett be, felfedezték, miután a felhasználók új kódot észleltek, amelyben a mobilalkalmazás nemrégiben történő frissítésében hivatkoztak a képességre. Ez a fejlesztési álláspont arra törekszik, hogy közvetlenül versenyezzen az Openai Chatgpt, a Google Gemini és az Xai Grok-jával, amelyek mindegyike a Conversational visszahívást a felhasználói élményük központi oszlopává tette. Target=”_ blank”> Egy felhasználó x , aki feltárta az új interfész elemeket. Az antropikus számára a memória hozzáadása már nem opcionális javítás, hanem versenyképesség. A szolgáltatás megígéri, hogy a Claude-val való interakciókat zökkenőmentesebbé teszi azáltal, hogy lehetővé teszi, hogy emlékezzen a felhasználói preferenciákra és az előző csevegésekből származó kontextusra, kiküszöbölve a felhasználók számára a súrlódás közös pontját. A kezdeti jelentés szerint Claude képes arra is, hogy képes legyen beágyazni funkcionalitását közvetlenül a „tárgyak” funkciójába, az interaktív tartalom oldalsávba. Amint az antropikus belép az arénába, nemcsak a személyre szabottabb AI előnyeit, hanem a felhasználói vezérlés és biztonság összetett kihívásait is örökli, amelyek meghatározták az AI memória tájat. RACE

Az AI asszisztensek tartós memóriájának biztosítása az elmúlt évben gyorsan eszkalálódott, és a funkciót asztali tétré változtatta minden komoly versenyző számára. Az Openai 2024 eleje óta jelentősen fejlõdött a memória képességeivel. A vállalat májusban először kibővítette a Plus előfizetőinek alapvető memóriafüggvényét, amely a felhasználók számára a tények kifejezetten történő mentését követelte meg. Áprilisra ez egy sokkal fejlettebb rendszerré alakult, amely implicit módon hivatkozhat a felhasználó teljes csevegési előzményeire, hogy kontextust biztosítson.

A versenytársak nem voltak messze. Februárban a Google integrálta a Cross-Chat-memóriát a fizetett Gemini Advanced szolgáltatásba, lehetővé téve az asszisztensnek, hogy a múltbeli beszélgetésekből vonzza a jelenlegi beszélgetéseket. Alig két hónappal később, áprilisban, az Elon Musk Xai bejelentette, hogy Grok Chatbot szintén memória funkciót kap. Az iparág legfontosabb laboratóriumaiból származó kiadások ez a kiadások határozottan megállapították, hogy az AI asszisztensek jövője nemcsak a kérdések megválaszolásáról szól, hanem egy folyamatos, fejlődő párbeszéd felépítéséről a felhasználóval. OpenAI’s two-tiered system, detailed in its official FAQ, distinguishes between explicit “Saved Memories”that users can view and delete, and the implicit referencing of chat history, which can only be disabled wholesale.

Ezzel szemben, amikor az Xai elindította a Grok memóriáját, az Megbeszélés x hangsúlyozva, a transzparencek, a Transparenys, a Transparents… Pontosan láthatja, mit tud Grok, és válassza ki, mit kell elfelejteni.”A Google a hatékonyságra összpontosítva, és elmagyarázza a sebezhetőségeket a CHATGPT-ben, mind a Google Gemini. manipulálhatja az AI memóriáját. Ahogyan Rehberger elmagyarázta: „Amikor a felhasználó később„ X “-et mondja [a programozott parancshoz], az Ikrek, úgy gondolva, hogy a felhasználó közvetlen utasítását követi, végrehajtja az eszközt.”Részletes esettanulmány a githubon közzétett Dokumentált jelentős munkafolyamat-zavarokat, amikor a CHATGPT-t használja a dokumentum-nehézségekhez. ami súlyosan megzavarja a munkafolyamatomat, amikor a dokumentumokon dolgozik”-egy olyan probléma, amely hangsúlyozza a megbízható és biztonságos memóriarendszer nagymértékű felépítésének óriási technikai kihívását. Az antropikus belépése a memória fegyverversenybe azt jelenti, hogy nemcsak egy funkció üldözése, hanem a vele járó mély biztonsági és etikai felelősségekkel is szembesül. A egy legfrissebb cikk az új veremből származó legfrissebb cikk, az antropikus már ellenőrzéssel szembesül az adatgyakorlatok alapján. Június 4-én a Reddit jogi panaszt nyújtott be a társaság ellen, azzal állítva, hogy „a Reddit-felhasználók személyes adatainak képzését anélkül, hogy bármikor megkérdezte volna hozzájárulásukat”. A modellek fejlesztése. Ez a pert alapvető kérdéseket vet fel az adatokkal, amelyek alátámasztják azokat az „emlékeket”, amelyeket ezek az AI-k épülnek fel.