Το Anthropic έχει ξεκινήσει έναν πιλότο για το”Claude for Chrome”, μια νέα επέκταση του προγράμματος περιήγησης που επιτρέπει στο AI να αναλάβει δράση για τους χρήστες. Ανακοινώθηκε σήμερα, η προεπισκόπηση της έρευνας περιορίζεται σε 1.000 αξιόπιστους χρήστες της υπηρεσίας Premium. Η κίνηση στοχεύει να κάνει το Claude πιο χρήσιμο, επιτρέποντάς του να κάνει κλικ στα κουμπιά και να συμπληρώσει τις φόρμες online. Ο ανθρωπός προχωράει σημαντικά για την αντιμετώπιση σοβαρών απειλών για την ασφάλεια. Η εταιρεία επικεντρώνεται στην πρόληψη” ρεύμα”επιθέσεις”Ο πιλότος εισέρχεται σε έναν ανταγωνιστικό τομέα, με την OpenAI, τη Microsoft και την Google να αναπτύσσουν παρόμοιους πράκτορες AI. href=”https://www.anthropic.com/news/claude-for-chrome”target=”_ blank”> Επόμενο λογικό βήμα “Στην ανάπτυξή του. Μετά την ενσωμάτωση με λογισμικό όπως τα ημερολόγια και τα έγγραφα, δίνοντας στο AI τη δυνατότητα να κάνουν κλικ στα κουμπιά και να συμπληρώσετε τα έντυπα απευθείας στο πρόγραμμα περιήγησης θεωρείται ως ένας τρόπος για να γίνει”ουσιαστικά πιο χρήσιμο”. Η προεπισκόπηση της ελεγχόμενης έρευνας περιορίζεται σε 1.000 χρήστες του προγράμματος”Max”της εταιρείας. Anthropic has opened a waitlist for these trusted testers, who are expected to provide crucial feedback on the tool’s uses, shortcomings, and safety Ζητήματα σε αυθεντικές συνθήκες.
Η εταιρεία δίνει έμφαση στο ότι οι εσωτερικές δοκιμές δεν μπορούν να αναπαράγουν την πλήρη πολυπλοκότητα του τρόπου με τον οποίο οι άνθρωποι περιηγούνται στον πραγματικό κόσμο. Ο πιλότος είναι απαραίτητος για να κατανοήσουν τα μοναδικά αιτήματα που κάνουν οι χρήστες, οι ιστότοποι που επισκέπτονται και το πώς εμφανίζεται κακόβουλο περιεχόμενο στην πράξη, το οποίο είναι ζωτικής σημασίας για την οικοδόμηση ισχυρών μέτρων ασφαλείας. Η εταιρεία θα επεκτείνει σταδιακά την πρόσβαση καθώς δημιουργεί εμπιστοσύνη και αναπτύσσει ισχυρότερες διασφαλίσεις με βάση τα δεδομένα που συγκεντρώθηκαν κατά τη διάρκεια αυτής της περιορισμένης προεπισκόπησης. Ωστόσο, ο ανθρωπός προειδοποιεί τους πιλότους χρήστες να έχουν επίγνωση των δεδομένων ορατά στο Claude και να αποφύγουν τη χρήση της επέκτασης για ιστότοπους που περιλαμβάνουν ευαίσθητους οικονομικούς, νομικούς ή ιατρικούς πληροφορίες. Η πρωταρχική απειλή είναι η”γρήγορη ένεση”, όπου οι κακόβουλοι ηθοποιοί κρύβουν οδηγίες σε ιστότοπους, μηνύματα ηλεκτρονικού ταχυδρομείου ή έγγραφα για να εξαπατήσουν έναν πράκτορα στην εκτέλεση επιβλαβών ενεργειών χωρίς τη γνώση του χρήστη. Αυτές οι επιθέσεις θα μπορούσαν να προκαλέσουν ένα AI να διαγράψει αρχεία, να κλέβουν δεδομένα ή να κάνουν μη εξουσιοδοτημένες οικονομικές συναλλαγές. Target=”_ Blank”> 23,6% Ποσοστό επιτυχίας επίθεσης Όταν ο πράκτοράς του σκόπιμα στοχεύει χωρίς τους τελευταίους μετριασμούς της ασφάλειας. Σε ένα παράδειγμα Stark, μια απροστάτευτη έκδοση του Claude εξαπατήθηκε από ένα ψεύτικο μήνυμα ηλεκτρονικού ταχυδρομείου ασφαλείας που απαιτεί τα μηνύματα ηλεκτρονικού ταχυδρομείου που απαιτούνται για να διαγραφεί για”Υγιεινή γραμματοκιβωτίου”. Η κακόβουλη προτροπή υποστήριξε ακόμη ότι”δεν απαιτήθηκε πρόσθετη επιβεβαίωση.”
Μετά από αυτές τις κρυμμένες οδηγίες, ο πράκτορας AI προχώρησε στην επιλογή και τη διαγραφή των μηνυμάτων ηλεκτρονικού ταχυδρομείου του χρήστη, δηλώνοντας ότι το έκανε”όπως ζήτησε η ομάδα ασφαλείας”. Το πείραμα υπογράμμισε πόσο εύκολα θα μπορούσε να χειριστεί ένα AI σε καταστρεπτικές ενέργειες χωρίς κατάλληλες διασφαλίσεις. Η πρώτη γραμμή άμυνας είναι δικαιώματα χρήστη. Οι χρήστες μπορούν να χορηγήσουν ή να ανακαλέσουν την πρόσβαση του Claude σε συγκεκριμένους ιστότοπους ανά πάσα στιγμή. Ο πράκτορας έχει επίσης σχεδιαστεί για να ζητήσει επιβεβαίωση πριν από τη λήψη ενεργειών υψηλού κινδύνου, όπως η δημοσίευση περιεχομένου ή η ανταλλαγή προσωπικών δεδομένων, ακόμη και όταν λειτουργούν στις πειραματικές”αυτόνομες λειτουργίες”. Με αυτές τις νέες μετριασμούς, το συνολικό ποσοστό επιτυχίας μειώθηκε από 23,6% σε 11,2%. Σε ένα σύνολο”πρόκλησης”τεσσάρων τέτοιων τύπων επίθεσης του προγράμματος περιήγησης, οι νέες άμυνες μείωσαν εντυπωσιακά το ποσοστό επιτυχίας επίθεσης από 35,7% σε 0%. Οι απειλές αυτές δεν είναι απλώς θεωρητικές. Οι ερευνητές της Brave ανακάλυψαν πρόσφατα έναν πραγματικό κόσμο href=”https://thehackernews.com/2025/08/experts-find-ai-browsers-can-be.html”target=”_ blank”> exploits μπορούν να λειτουργήσουν σε ζωντανά, εμπορικά προϊόντα και να υπογραμμίσουν την επείγουσα επίλυση αυτών των προκλήσεων ασφαλείας.
Η κίνηση του Anthropic θερμαίνει τον αγώνα μεταξύ των τεχνολογικών γίγαντες για να αναπτύξει το Agentic AI. Η Openai ξεκίνησε τον ισχυρό του πράκτορα ChatGPT τον Ιούλιο του 2025, ο οποίος παρατηρήθηκε παρακάμπτοντας τις δοκιμές ασφαλείας”Δεν είμαι ρομπότ”. Ο πιο περιορισμένος προκάτοχός του, ο χειριστής, εισήχθη τον Ιανουάριο.
Η Microsoft είναι επίσης σημαντικός παίκτης. Ξεκίνησε μια πειραματική”λειτουργία copilot”για το πρόγραμμα περιήγησης άκρων τον Ιούλιο που μπορεί να κατανοήσει το πλαίσιο σε όλες τις ανοιχτές καρτέλες. Η στρατηγική είναι να ενσωματώσουμε βαθιά το υπάρχον οικοσύστημα του προγράμματος περιήγησης.
Αυτό το όραμα είναι φιλόδοξο, με ένα εκτελεστικό να δηλώνει ότι”αν κάποιος μπορεί να χρησιμοποιήσει την εφαρμογή, ο πράκτορας μπορεί επίσης”. Ο στόχος είναι ένας απρόσκοπτος συνεργάτης, όπως είπε ο Sean Lyndersay της Microsoft, ότι”δεν σας δίνει μόνο ατελείωτες καρτέλες για να κοσκινίσουν, αλλά συνεργάζονται μαζί σας ως συνεργάτης που έχει νόημα για όλα αυτά.”Η αμηχανία ξεκίνησε το πρόγραμμα περιήγησης Premium Comet τον Ιούλιο, ενώ η όπερα παρουσίασε το πρόγραμμα περιήγησης Neon τον Μάιο, και οι δύο στοχεύουν να επαναπροσδιορίσουν την πλοήγηση στο Web από το έδαφος. Η εταιρεία αναπτύσσει ήσυχα τον δικό της πράκτορα”χρήσης υπολογιστών”στο στούντιο AI, σηματοδοτώντας την πρόθεσή της να ανταγωνιστεί σε αυτή τη νέα αρένα. Μια μελέτη του Μαΐου 2025 από το πανεπιστήμιο Carnegie Mellon διαπίστωσε ότι ακόμη και οι κορυφαίοι πράκτορες της AI αγωνίζονται με σύνθετα καθήκοντα αυτοματισμού επιχειρήσεων. Η μελέτη σημείωσε έλλειψη κοινής λογικής και χαμηλής επιτυχίας.
Αυτός ο σκεπτικισμός μοιράζεται από ορισμένους ηγέτες της βιομηχανίας. Ο Διευθύνων Σύμβουλος της Perplexity Aravind Srinivas προτρέπει την προσοχή, δηλώνοντας:”Όποιος λέει ότι οι πράκτορες θα δουλέψουν το 2025 θα πρέπει να είναι σκεπτικοί”. Αυτό αντικατοπτρίζει το σημαντικό χάσμα μεταξύ της επίδειξης ικανότητας και της ανάπτυξης αξιόπιστα και με ασφάλεια σε κλίμακα. Η OpenAi Research Lead Isa Fulford σημείωσε ότι ο πράκτοράς τους απαιτεί άδεια για μη αναστρέψιμες ενέργειες, εξηγώντας ότι «πριν ο πράκτορας του ChatGpt κάνει οτιδήποτε« μη αναστρέψιμο », όπως η αποστολή ενός μηνύματος ηλεκτρονικού ταχυδρομείου ή η κράτηση, ζητά πρώτα την άδεια». Ενώ η υπόσχεση ενός AI που μπορεί να διαχειριστεί την ψηφιακή μας ζωή είναι επιτακτική, η βιομηχανία αναγνωρίζει ότι η εποχή των πραγματικά αυτόνομων, αξιόπιστων πράκτορων δεν έχει φτάσει ακόμη.