Ανθρωπός προετοιμάζεται να εξοπλίσει τον βοηθό του AI, Claude, με ένα χαρακτηριστικό μνήμης, μια στρατηγική κίνηση για να κλείσει ένα χάσμα κρίσιμης λειτουργικότητας με τους επικεφαλής αντιπάλους του. Η προγραμματισμένη ενημέρωση, που δεν έχει ακόμη ανακοινωθεί επίσημα από την εταιρεία, ανακαλύφθηκε αφού οι χρήστες εντοπίστηκαν νέο κώδικα αναφερόμενος στην ικανότητα σε μια πρόσφατη ενημέρωση για κινητά. Αυτή η εξέλιξη θέτει τον Claude για να ανταγωνιστεί άμεσα με το ChatGPT της OpenAI, το Gemini της Google και το Xai’s Grok, οι οποίοι έχουν κάνει τη συνομιλητική ανάκληση έναν κεντρικό πυλώνα της εμπειρίας των χρηστών τους. Target=”_ blank”> Ένας χρήστης στο x που είχε αποκαλύψει τα νέα στοιχεία διεπαφής. Για τον ανθρωπογενή, η προσθήκη μνήμης δεν είναι πλέον μια προαιρετική βελτίωση, αλλά μια ανταγωνιστική αναγκαιότητα. Το χαρακτηριστικό υπόσχεται να κάνει αλληλεπιδράσεις με το Claude πιο απρόσκοπτο επιτρέποντάς του να θυμάται τις προτιμήσεις των χρηστών και το πλαίσιο από προηγούμενες συνομιλίες, εξαλείφοντας ένα κοινό σημείο τριβής για τους χρήστες. Σύμφωνα με την αρχική έκθεση, η Claude μπορεί επίσης να αποκτήσει τη δυνατότητα να ενσωματώσει τη λειτουργικότητά του απευθείας στο χαρακτηριστικό της”Artifacts”, ενός χώρου πλευρικής γραμμής για διαδραστικό περιεχόμενο. Καθώς ο ανθρωπός εισέρχεται σε αυτήν την αρένα, κληρονομεί όχι μόνο τα οφέλη ενός πιο εξατομικευμένου AI αλλά και των σύνθετων προκλήσεων του ελέγχου και της ασφάλειας των χρηστών που έχουν καθορίσει το τοπίο μνήμης AI. Ο αγώνας
Ο αγώνας για να δώσει στους βοηθούς AI μια επίμονη μνήμη έχει κλιμακωθεί γρήγορα κατά το παρελθόν έτος, μετατρέποντας το χαρακτηριστικό σε πλακίδια για οποιονδήποτε σοβαρό υποψήφιο. Η OpenAI έθεσε το ρυθμό, εξελίσσοντας σημαντικά τις δυνατότητές της μνήμης από τις αρχές του 2024. Η εταιρεία επέκτεινε για πρώτη φορά μια βασική λειτουργία μνήμης για τους συνδρομητές συν το Μάιο, γεγονός που απαιτούσε από τους χρήστες να εξοικονομούν ρητά γεγονότα. Μέχρι τον Απρίλιο, αυτό είχε μετατραπεί σε ένα πολύ πιο προηγμένο σύστημα που θα μπορούσε να αναφέρει σιωπηρά ολόκληρο το ιστορικό συνομιλίας ενός χρήστη για να παράσχει το πλαίσιο.
Οι ανταγωνιστές δεν ήταν πολύ πίσω. Τον Φεβρουάριο, η Google Integrated Cross-Chat Memory στην προχωρημένη υπηρεσία Gemini, επιτρέποντας στον βοηθό να αντλήσει από προηγούμενες συνομιλίες για να ενημερώσει τις τρέχουσες. Μόλις δύο μήνες αργότερα, τον Απρίλιο, ο Xai του Elon Musk ανακοίνωσε ότι το grok chatbot του πήρε επίσης ένα χαρακτηριστικό μνήμης. Αυτή η αναταραχή των απελευθερώσεων από τα κορυφαία εργαστήρια της βιομηχανίας έχει διαπιστώσει σταθερά ότι το μέλλον των βοηθών του AI δεν είναι μόνο για την απάντηση σε ερωτήσεις, αλλά για την οικοδόμηση ενός συνεχούς, εξελισσόμενου διαλόγου με τον χρήστη και τον έλεγχο του χρήστη που προσφέρει το Varies. Το σύστημα δύο επιπέδων του OpenAi, που περιγράφεται λεπτομερώς στο οι επίσημες ερωτήσεις , διακρίνει μεταξύ των ρητών”αποθηκευμένων αναμνήσεων”που μπορούν να προβάλουν και να διαγραφούν και να διαγράφουν.
Αντίθετα, όταν ο Xai ξεκίνησε τη μνήμη του Grok, το Μπορεί να δει ακριβώς τι γνωρίζει ο Grok και να επιλέξει τι να ξεχάσει.”Η Google, από την πλευρά της, επικεντρώθηκε στην αποτελεσματικότητα, εξηγώντας σε μια θέση blog, η οποία θα πρέπει να ξεκινήσει από το μηδέν. παρέχοντας στους χρήστες σαφείς, διαχειρίσιμους ελέγχους στα δικά τους δεδομένα. Η πιο σημαντική απειλή είναι η άμεση ένεση, όπου οι κακόβουλες οδηγίες που είναι κρυμμένες σε έγγραφα ή άλλα δεδομένα μπορούν να εξαπατήσουν ένα AI για να καταστρέφουν τη μνήμη του ή, χειρότερα, να εξαντλήσουν τις ευαίσθητες πληροφορίες χρήστη. Αυτός ο κίνδυνος δεν είναι θεωρητικός. Ο ερευνητής του Cybersecurity Johann Rehberger έχει επιδείξει τέτοια ευπάθειες και στα δύο chatgpt και Google Gemini. χειραγωγήστε τη μνήμη του AI. Όπως εξήγησε ο Rehberger,”Όταν ο χρήστης λέει αργότερα”X”[για την προγραμματισμένη εντολή], ο Gemini, πιστεύοντας ότι ακολουθεί την άμεση εντολή του χρήστη, εκτελεί το εργαλείο.”
Η σταθερότητα αυτών των σύνθετων συστημάτων παραμένει επίσης πρακτική ανησυχία για τους χρήστες. Ένα λεπτομερές Η μελέτη περίπτωσης που δημοσιεύθηκε στο Github Σοβαρά διαταράσσει τη ροή εργασίας μου όταν εργάζομαι σε έγγραφα”-ένα πρόβλημα που υπογραμμίζει την τεράστια τεχνική πρόκληση της οικοδόμησης ενός αξιόπιστου και ασφαλούς συστήματος μνήμης σε κλίμακα. Η είσοδος του Anthropic στον αγώνα των εξοπλισμών μνήμης σημαίνει ότι δεν κυνηγάει μόνο ένα χαρακτηριστικό, αλλά και την αντιμετώπιση της βαθιάς ασφάλειας και των ηθικών ευθυνών που έρχονται με αυτό. Σύμφωνα με το Ένα πρόσφατο άρθρο από τη νέα στοίβα . Στις 4 Ιουνίου, η Reddit υπέβαλε νομική καταγγελία κατά της εταιρείας, υποστηρίζοντας ότι”εκπαιδεύτηκε για τα προσωπικά δεδομένα των χρηστών της Reddit χωρίς να ζητήσει ποτέ τη συγκατάθεσή τους”. να αναπτύξει τα μοντέλα του. Αυτή η αγωγή εγείρει θεμελιώδη ερωτήματα σχετικά με τα δεδομένα που υποστηρίζουν τις πολύ”αναμνήσεις”αυτές οι AIS κατασκευάζονται για να έχουν.