Anthropic udostępnił szczegółowe informacje na temat Clio, zaawansowanego narzędzia analitycznego, które zapewnia wgląd w sposób wykorzystania asystenta AI Claude w milionach rozmów.

Zaprojektowane, aby sprostać wyzwaniom związanym ze zrozumieniem interakcji AI przy jednoczesnym zachowaniu prywatności użytkownika , Clio dostarcza w czasie rzeczywistym statystyki, które informują o poprawie bezpieczeństwa i wykrywają potencjalne nadużycia. W miarę wzrostu stosowania systemów sztucznej inteligencji na całym świecie narzędzia takie jak Clio pokazują, jak laboratoria sztucznej inteligencji starają się zrównoważyć nadzór etyczny z innowacjami.

Nowy paradygmat zrozumienia interakcji AI

Systemy sztucznej inteligencji, takie jak Claude, szybko zintegrowały się z różnymi aspektami życia ludzkiego, wykonując zadania, od tworzenia oprogramowania po edukację. Jednak zrozumienie sposobu korzystania z tych systemów pozostaje wyzwaniem ze względu na obawy związane z prywatnością i przytłaczającą skalę danych.

W przeciwieństwie do tradycyjnego podejścia opierającego się na wcześniej zidentyfikowanym ryzyku, Clio wykorzystuje metodę analizy oddolnej w celu odkrycia ukrytych wzorców i trendów w wykorzystaniu sztucznej inteligencji. Narzędzie reprezentuje zmianę w sposobie, w jaki firmy oceniają wpływ swoich systemów sztucznej inteligencji, odchodząc od ręcznej analizy do skalowalnych struktur chroniących prywatność.

Clio wykorzystuje techniki przetwarzania języka naturalnego (NLP) i osadzania w celu wyodrębnienia atrybutów— zwane aspektami — z rozmów, obejmujących tematy, języki i typy interakcji.

Obraz: Antropiczny

Te aspekty są pogrupowane semantycznie, a podobne rozmowy pogrupowane na podstawie bliskości tematycznej przy użyciu algorytmów takich jak k-średnie. Proces ten kończy się utworzeniem hierarchicznych klastrów, umożliwiających analitykom nawigację od szerokich kategorii do konkretnych podtematów. Rezultatem jest ogólny obraz tego, jak użytkownicy korzystają ze sztucznej inteligencji bez narażania wrażliwych danych.

Powiązane: Nowy protokół kontekstowy modelu firmy Anthropic rewolucjonizuje łączność AI z danymi

Ochrona prywatności na każdym kroku

Anthropic podkreśla, że ​​prywatność jest integralną częścią projektu Clio. System zawiera wielowarstwowe zabezpieczenia, które zapewniają, że poszczególne rozmowy pozostaną anonimowe i niemożliwe do zidentyfikowania w trakcie analizy.

Zabezpieczenia Clio obejmują monity podsumowujące, które pomijają dane osobowe, progi odrzucania małych lub rzadkich klastrów oraz szeroko zakrojone audyty w celu sprawdzenia wyników. Środki te są zgodne z etosem Anthropic dotyczącym zaufania użytkowników i odpowiedzialności za dane.

„Ochrona prywatności jest wbudowana w każdą warstwę projektu Clio” – powiedział Alex Tamkin, główny autor artykułu badawczego Clio Platformer. „System umożliwia nam ujawnianie spostrzeżeń bez naruszanie poufności indywidualnej lub organizacyjnej.”

To rygorystyczne podejście zostało potwierdzone podczas testów, w wyniku których Clio osiągnęło 94% dokładność rekonstrukcji wzorców przy jednoczesnym zachowaniu zgodności z zasadami ochrony prywatności. Zdolność narzędzia do uzyskiwania przydatnych spostrzeżeń bez ujawniania wrażliwych informacji pokazuje, jak można zarządzać systemami sztucznej inteligencji w sposób etyczny.

Powiązane: Amazon przekazuje firmie Anthropic 4 miliardy dolarów na stanie się centrum szkoleniowym Claude’a w zakresie sztucznej inteligencji

Kluczowe spostrzeżenia na temat przypadków użycia sztucznej inteligencji

Analiza ponad miliona rozmów z Claudem przeprowadzona przez Clio ujawniła kilka głównych trendów. Kodowanie AI i tworzenie oprogramowania okazało się wiodącym przypadkiem użycia, odpowiadającym za ponad 10% interakcji. Użytkownicy często szukali pomocy przy debugowaniu, odkrywaniu koncepcji Git i budowaniu aplikacji.

Kolejną ważną kategorią było zastosowanie edukacyjne, obejmujące ponad 7% rozmów, w których nauczyciele i uczniowie wykorzystywali Claude do zadań edukacyjnych. Operacje biznesowe, w tym tworzenie e-maili i analizowanie danych, stanowiły prawie 6% interakcji.

Źródło: Antropiczne

Clio uwypukliło także wyjątkowe niuanse kulturowe i kontekstowe. Na przykład japońscy użytkownicy w nieproporcjonalny sposób poruszali kwestię opieki nad osobami starszymi, odzwierciedlając określone interesy społeczne. Mniejsze klastry podkreślały kreatywne i nieoczekiwane zastosowania, takie jak interpretacja snów, gotowość na wypadek katastrofy i odgrywanie ról jako Mistrzowie Lochów w grach planszowych.

„Okazuje się, że jeśli zbudujesz technologię ogólnego przeznaczenia i wypuścisz ją, ludzie widzą w tym wiele celów” – powiedział Deep Ganguli, który kieruje zespołem ds. wpływu społecznego w Anthropic.

[treści osadzone]

Wzmacnianie bezpieczeństwa i zaufania

Jedną z najważniejszych aplikacji Clio jest jej zdolność do zwiększania bezpieczeństwa poprzez identyfikowanie wzorców nadużyć. Podczas rutynowej analizy Clio odkryło skoordynowaną kampanię spamową SEO, w ramach której użytkownicy manipulowali podpowiedziami w celu wygenerowania treści zoptymalizowanej pod kątem wyszukiwania. Chociaż poszczególne zapytania wydawały się niegroźne. Grupowanie Clio ujawniło ich zbiorowe niewłaściwe użycie, umożliwiając interwencję zespołowi ds. zaufania i bezpieczeństwa firmy Anthropic.

W ramach przygotowań do amerykańskiej konferencji generalnej w 2024 r. Election, Clio monitorowało interakcje sztucznej inteligencji pod kątem zagrożeń związanych z głosowaniem i treściami politycznymi. System zidentyfikował łagodne zastosowania, takie jak wyjaśnianie procesów wyborczych, a także próby niewłaściwego wykorzystania Claude do generowania materiałów do zbierania funduszy na kampanię.

„To naprawdę pokazuje, że. możesz monitorować i rozumieć w sposób oddolny, co się dzieje, zachowując jednocześnie prywatność użytkowników., Miles McCain, członek personelu technicznego Anthropic, powiedział zobacz rzeczy, zanim staną się. „Pozwala zobaczyć rzeczy, zanim staną się problemem wystawionym na widok publiczny”.

Powiązane: Brytyjskie organy regulacyjne zatwierdziły antropiczną umowę Alphabet o wartości 2 miliardów dolarów, patrz Brak znaczącego wpływu

Ograniczenie błędów w klasyfikatorach AI

Clio udoskonaliło także klasyfikatory bezpieczeństwa firmy Anthropic, rozwiązując typowe problemy, takie jak niektóre z nich, takie jak fałszywe alarmy zapytania – takie jak osoby poszukujące pracy przesyłające CV lub interakcje w grach RPG – zostały oznaczone jako szkodliwe z powodu błędnej interpretacji ich treści.

Obraz: Analiza Anthropic

Clio pomogła w ponownej kalibracji tych klasyfikatorów, ograniczając niepotrzebne zakłócenia dla użytkowników przy jednoczesnym zachowaniu solidnych standardów bezpieczeństwa Alex Tamkin, główny autor artykułu i badacz, skomentował Platformówka:

„Możesz używać Clio do ciągłego monitorowania wysoki poziom, do jakich celów ludzie używają tej całkowicie nowej technologii. Możesz zgłosić wszystko, co wygląda podejrzanie lub niepokojąco, zespołowi ds. zaufania i bezpieczeństwa i aktualizować te zabezpieczenia w miarę wdrażania technologii.”

Powiązane: Anthropic Urges Natychmiastowe globalne rozporządzenie w sprawie sztucznej inteligencji: 18 Miesiące lub jest już za późno

Szersze konsekwencje dla zarządzania sztuczną inteligencją

Anthropic postrzega Clio jako coś więcej niż narzędzie zapewniające bezpieczeństwo; postrzega system jako wzór etycznego zarządzania sztuczną inteligencją. Otwarcie dzieląc się szczegółami technicznymi, w tym kosztem Clio wynoszącym 48,81 USD za 100 000 przeanalizowanych rozmów, Anthropic ma na celu promowanie w całej branży stosowania podobnych analiz chroniących prywatność. Ta przejrzystość odzwierciedla szersze zaangażowanie w odpowiedzialność Rozwój sztucznej inteligencji i odpowiedzialność społeczna.

„Otwarcie rozmawiając o Clio, chcemy przyczynić się do kształtowania pozytywnych norm dotyczących odpowiedzialnego rozwoju i korzystania z takich narzędzi.” Tamkin powiedział Platformerowi. Clio oferuje również wgląd w trendy gospodarcze i kulturowe, pozycjonując je jako kluczowe narzędzie do zrozumienia społecznego wpływu sztucznej inteligencji.

Przyszłość analizy sztucznej inteligencji chroniącej prywatność

Sukces Clio podkreśla potencjał narzędzi monitorujących AI, które szanują prywatność użytkowników, a jednocześnie dostarczają przydatnych informacji. W miarę jak systemy sztucznej inteligencji będą w dalszym ciągu integrować się z codziennym życiem, narzędzia takie jak Clio będą odgrywać kluczową rolę w zapewnieniu ich bezpiecznego i etycznego użytkowania. Uwzględniając złożoność rzeczywistych aplikacji i pojawiające się zagrożenia, Clio firmy Anthropic stanowi krok naprzód w rozumieniu, zarządzaniu i zaufaniu sztucznej inteligencji.

Categories: IT Info