ANTROPIC uruchomił pilota dla „Claude for Chrome”, nowego rozszerzenia przeglądarki, które pozwala AI podejmować działania użytkowników. Ogłoszony dzisiaj, podgląd badań jest ograniczony do 1000 zaufanych użytkowników swojej usługi premium. Ten ruch ma na celu uczynienie Claude bardziej przydatnym poprzez pozwalając mu kliknąć przyciski i wypełnić formularze online.
Ten krok w automatyzację przeglądarki jest obliczona. Anthropiki idzie z znaczną ostrożnością, aby zająć się poważnymi zagrożeniami bezpieczeństwa. Firma koncentruje się na zapobieganiu „ szybkie wstrzyknięcie , w których ukryte polecenia na stronie mogą oszukać AI. Pilot wkracza na pola konkurencyjna, z Openai, Microsoft i Google, którzy opracowują podobnych agentów AI.
ostrożny krok w automatyzacji przeglądarki
Nowe rozszerzenie pozwala Claude zobaczyć, co użytkownik patrzy i podejmuje działania w ich imieniu, a pojemność opisuje antropijne możliwości Analiza href=”https://www.antropic.com/news/claude-for-chrome”target=”_ blank”> następny logiczny krok “w swoim rozwoju. Po zintegrowaniu z oprogramowaniem, takim jak kalendarze i dokumenty, nadanie sztucznej inteligencji możliwość klikania przycisków i wypełnienia formularzy bezpośrednio w przeglądarce jest postrzegane jako sposób, aby było „znacznie bardziej przydatne.”
Firma podkreśla, że testy wewnętrzne nie mogą odtworzyć pełnej złożoności przeglądania ludzi w prawdziwym świecie. Pilot jest niezbędny do zrozumienia unikalnych żądań, które wprowadzają użytkownicy, witryny, które odwiedzają, oraz jak w praktyce pojawiają się złośliwe treści, co jest niezbędne do budowania solidnych środków bezpieczeństwa.
[Wbudowane treści]
antropiczne plany wykorzystania od pilota w celu udoskonalenia szybkich klasyfikatorów wtrysku, poprawy ich modeli i rozwinięcia bardziej wyrafinowanych kontroli zezwoleń. Firma stopniowo rozszerza dostęp, ponieważ buduje zaufanie i opracowuje silniejsze zabezpieczenia na podstawie danych zebranych podczas tego ograniczonego podglądu.
Nawet we wczesnym użytkowaniu wewnętrznym agent okazał obietnicę zarządzania kalendarzami, obsługą raportów z wydatków i testowania funkcji strony internetowej. Jednak antropic ostrzega użytkowników pilotów, aby uważali dane widoczne dla Claude i unikać korzystania z rozszerzenia dla witryn obejmujących wrażliwe informacje finansowe, prawne lub medyczne.
Widmo szybkiego wstrzyknięcia
AI, które AI, które AI, które antropiczne jest antrażowiste z apartamentem jabłkowym. Podstawowym zagrożeniem jest „szybkie wstrzyknięcie”, w którym złośliwy aktorzy ukrywają instrukcje na stronach internetowych, e-mailach lub dokumentach, aby oszukać agenta do wykonywania szkodliwych działań bez wiedzy użytkownika. Ataki te mogą spowodować, że sztuczna inteligencja usuwa pliki, kradzież danych lub dokonywanie nieautoryzowanych transakcji finansowych.
Wewnętrzne „czerwono-teaming”, które polegały na oceny 123 przypadków testowych w 29 różnych scenariuszach ataku, ujawniło zawarcie 23,6% wskaźnik powodzenia ataku Gdy jego agent został celowo ukierunkowany bez najnowszych łagodzeń bezpieczeństwa. W jednym wyraźnym przykładzie niechronna wersja Claude została oszukana przez fałszywy e-mail z bezpieczeństwem, w którym zgłoszono e-maile, które muszą zostać usunięte w celu uzyskania „higieny skrzynki pocztowej”. Złośliwy monit stwierdził nawet, że „nie było wymagane dodatkowe potwierdzenie.”
Po tych ukrytych instrukcjach agent AI przystąpił do wyboru i usuwania e-maili użytkownika, stwierdzając, że to robi „zgodnie z żądaniem zespołu bezpieczeństwa”. Eksperyment podkreślił, w jaki sposób AI można manipulować w destrukcyjnych działaniach bez odpowiednich zabezpieczeń.
Firma wdrożyła kilka warstw obrony zgodnie z zasadami wiarygodnymi agentami. Pierwsza linia obrony to uprawnienia użytkownika; Użytkownicy mogą w dowolnym momencie udzielić lub odwołać dostęp do określonych stron internetowych. Agent został również zaprojektowany, aby poprosić o potwierdzenie przed podjęciem działań wysokiego ryzyka, takich jak publikacja treści lub udostępnianie danych osobowych, nawet podczas eksploatacji w eksperymentalnym „trybie autonomicznym.”
Dodatkowe zabezpieczenia obejmują ulepszone podpowiedzi systemowe, które instruują Claude’a, w jaki sposób obsługiwać wrażliwe dane, blokowanie dostępu do kategorii witryn internetowych o wysokim ryzyku, takich jak usługi finansowe, i budować zaawansowane klasyki, aby wykryć podejrzane wzorce instrukcji. Dzięki tym nowym łagodzeniom ogólny wskaźnik powodzenia ataku został zmniejszony z 23,6% do 11,2%.
Zespół skupił się również na nowych atakach specyficznych dla przeglądarków, takich jak ukryte złośliwe pola w modelu obiektu dokumentów internetowych (DOM) i wstrzyknięcia za pośrednictwem tekstu adresu URL. W zestawie „wyzwania” czterech takich rodzajów ataków specyficznych dla przeglądarki, nowa obrona imponująco zmniejszyła wskaźnik powodzenia ataku z 35,7% do 0%.
Te zagrożenia nie są jedynie teoretyczne. Naukowcy w Brave niedawno odkryli rzeczywisty świat exploity mogą pracować Na żywo, produkty komercyjne i podkreślenie pilności rozwiązywania tych problemów bezpieczeństwa.
Nowy front w przedziałach komercyjnych i podkreślających pilność rozwiązywania tych wyzwań bezpieczeństwa. Wars
Ruch Antropica podgrzewa wyścig między gigantami technologicznymi, aby rozwinąć agencję AI. Openai uruchomił swojego potężnego agenta Chatgpt w lipcu 2025 r., Które zostało zaobserwowane, omijając testy bezpieczeństwa „Nie jestem robotem”. Jego bardziej ograniczony poprzednik, operator, został wprowadzony w styczniu.
Microsoft jest również głównym graczem. W lipcu uruchomił eksperymentalny „tryb Copilot” dla swojej przeglądarki Edge, która może zrozumieć kontekst we wszystkich otwartych zakładkach. Strategia polega na głębokim osadzeniu AI w istniejącym ekosystemie przeglądarki.
Ta wizja jest ambitna, a jeden z kierowników stwierdził, że „jeśli dana osoba może korzystać z aplikacji, agent też może”. Celem jest bezproblemowy współpracownik, jak powiedział Sean Lyndersay z Microsoft, że „nie tylko daje niekończące się zakładki do przesiewania, ale współpracuje z tobą jako współpracownik, który ma sens.”
Inni rywali budują całkowicie nowe przeglądarki wokół AI. W lipcu zakłopotanie uruchomił swoją przeglądarkę kometową premium, podczas gdy Opera zaprezentowała swoją agencyjną neonową przeglądarkę w maju, oba mające na celu przedefiniowanie nawigacji internetowej od podstaw.
Nawet Google, od dawna króla przeglądarki, nie stoi nieruchomo. Firma po cichu opracowuje swój własny agent „używania komputera” w swoim studio AI, sygnalizując zamiar konkurowania na tej nowej arenie.
rzeczywistość wydajności agenta
Pomimo szybkiej innowacji, pytania o rzeczywiste skuteczność tych agentów utrzymuje się. Badanie z maja 2025 r. Z Carnegie Mellon University wykazało, że nawet najlepsi agenci AI walczą ze złożonymi zadaniami automatyzacji biznesowej. W badaniu zauważyło brak zdrowego rozsądku i niskie wskaźniki sukcesu.
Ten sceptycyzm jest dzielony przez niektórych liderów branży. Aravind Srinivas, dyrektor generalny zakłopotania, wezwał ostrożność, stwierdzając: „Każdy, kto mówi, że agenci będą pracować w 2025 r., Powinien być sceptyczny”. Odzwierciedla to znaczącą lukę między wykazaniem zdolności a rozmieszczeniem go niezawodnym i bezpiecznym na skalę. Na razie programiści budują nadzór ludzki jako krytyczną sieć bezpieczeństwa. Kierownik Openai Research ISA Fulford zauważył, że ich agent wymaga pozwolenia na nieodwracalne działania, wyjaśniając, że „zanim agent Chatgpt robi coś„ nieodwracalnego “, takie jak wysłanie wiadomości e-mail lub dokonanie rezerwacji, najpierw prosi o pozwolenie.”
Anthropic o ostrożnym, opartym na opinii pilotu opinii, sugeruje podobne zrozumienie. Chociaż obietnica sztucznej inteligencji, która może zarządzać naszym cyfrowym życiem, jest przekonująca, branża przyznaje, że era prawdziwie autonomicznych, godnych zaufania agentów jeszcze nie dotarła.