Właśnie opublikowany indeks bezpieczeństwa AI 2024 opracowany przez Future of Life Institute (FLI) ujawnił poważne niedociągnięcia w praktykach bezpieczeństwa sztucznej inteligencji w sześciu wiodących firmach, w tym Meta, OpenAI i Google DeepMind.
Sztuczna inteligencja Indeks bezpieczeństwa umieścił Anthropic na najwyższym miejscu z oceną „C”, ale pozostałe firmy – Meta, OpenAI, Google DeepMind, xAI i Zhipu AI – uzyskały fatalne wyniki, a Meta nie powiodła się wprost.
Odkrycia podkreślają pilną potrzebę silniejszego zarządzania i zarządzania ryzykiem w branży dążącej do opracowywania coraz bardziej zaawansowanych systemów sztucznej inteligencji.
Prezes FLI Max Tegmark bez ogródek opisał sytuację IEEE Spectrum: „Czuję, że liderzy tych firm wpadli w pułapkę w wyścigu na dno, z którego żaden z nich nie może się wydostać, bez względu na to, jak dobre ma serce.”
The FLI oceniło firmy w sześciu kategoriach, w tym ocenie ryzyka, zarządzaniu i strategiach bezpieczeństwa egzystencjalnego. Pomimo skupienia się branży na opracowywaniu wydajnych systemów, raport podkreśla znaczną lukę między możliwościami technologicznymi a skutecznymi środkami bezpieczeństwa.
Anthropic przewodzi grupie ze średnim „C”
Anthropic okazał się najlepszym wynikiem w Indeksie, chociaż jego ocena „C” wskazuje, że nadal jest wiele do zrobienia. Pozytywnym przykładem była „polityka odpowiedzialnego skalowania” firmy.
Zasada ta wymaga, aby wszystkie modele przechodziły rygorystyczną ocenę ryzyka w celu zidentyfikowania i ograniczenia katastrofalnych szkód przed wdrożeniem. Ponadto firma Anthropic konsekwentnie osiąga dobre wyniki w ustalonych standardy bezpieczeństwa, co pozwoliło jej uzyskać ocenę „B-” w kategorii reagowania na bieżące szkody, co stanowi najwyższy wynik w tej dziedzinie.
Pomimo stosunkowo dobrych wyników, firma Anthropic była również krytykowana za brak kompleksowej strategii zarządzania ryzykami egzystencjalnymi – problem podzielany przez wszystkie oceniane firmy.
Źródło: inicjatywa FutureOfLife
Recenzenci zauważyli, że chociaż Anthropic, OpenAI i Google DeepMind przedstawiły wstępne podejścia do bezpieczeństwa egzystencjalnego, wysiłki te pozostają wstępne i niewystarczające, aby sprostać skali wyzwania.
Meta otrzymuje ocenę „F” w miarę wzrostu obaw dotyczących bezpieczeństwa
Na drugim końcu spektrum Meta otrzymała ocenę niedostateczną za nieodpowiednie zarządzanie i praktyki w zakresie bezpieczeństwa. W raporcie wskazano główny luki w przejrzystości Meta, ramach odpowiedzialności i egzystencjalnych strategiach bezpieczeństwa wzbudził obawy co do zdolności firmy do zarządzania ryzykiem związanym z rozwojem sztucznej inteligencji.
Słaby wynik Meta uwydatnia pewien problem. szerszy problem w branży Pomimo znacznych inwestycji w badania nad sztuczną inteligencją wiele firm nie nadało priorytetu strukturom zarządzania niezbędnym do zapewnienia, że ich technologie są bezpieczne i zgodne z wartościami społecznymi. Ten brak ustalenia priorytetów pogłębia konkurencyjne środowisko, które szybko nagradza wdrażanie zamiast ostrożności.
Przejrzystość: stale słaby punkt
Przejrzystość była kolejnym krytycznym obszarem, w którym firmy osiągały gorsze wyniki. Tylko xAI i Zhipu AI wypełniły dostosowane kwestionariusze bezpieczeństwa przesłane przez FLI, uzyskując nieco wyższe wyniki w tej kategorii.
Pozostałe firmy nie przedstawiły szczegółowego wglądu w swoje wewnętrzne praktyki bezpieczeństwa, co jeszcze bardziej podkreśliło nieprzejrzystość, która często otacza rozwój sztucznej inteligencji.
W odpowiedzi na raport firma Google DeepMind wydała oświadczenie broniące tego podejścia, stwierdzające: „Chociaż Indeks uwzględnia niektóre działania Google DeepMind w zakresie bezpieczeństwa sztucznej inteligencji i odzwierciedla zgodnie z przyjętymi w branży wzorcami nasze kompleksowe podejście do bezpieczeństwa sztucznej inteligencji wykracza poza to, co zostało przechwycone.”
Recenzenci pozostali jednak nieprzekonani, wskazując, że bez większej przejrzystości nie można ocenić, czy twierdzenia te przekładają się na znaczące działania.
Max Tegmark podkreślił znaczenie nacisku zewnętrznego, zauważając: „Jeśli firma nie jest uczucie zewnętrzne presja, aby spełniać standardy bezpieczeństwa, wtedy inni ludzie w firmie będą postrzegać Cię po prostu jako utrapienie, kogoś, kto próbuje spowolnić pracę i wrzucać żwir do maszyn. Ale jeśli ci badacze bezpieczeństwa staną się nagle odpowiedzialni za poprawę reputacji firmy, zyskają zasoby, szacunek i wpływy.”
Strategie ryzyka egzystencjalnego: częsta porażka
Jednym z najbardziej niepokojących wniosków Indeksu był powszechny brak firm w opracowaniu solidnych strategii w zakresie ryzyka egzystencjalnego, podczas gdy większość firm publicznie dąży do stworzenia sztucznej inteligencji ogólnej (AGI) – systemów sztucznej inteligencji zdolnych do poznania na poziomie człowieka. — nikt nie ma opracował kompleksowe plany zapewniające zgodność tych systemów z wartościami ludzkimi.
Tegmark podkreślił powagę tego problemu, stwierdzając: „Prawda jest taka, że nikt nie wie, jak kontrolować nowy gatunek, który jest znacznie mądrzejszy od nas.”
Stuart Russell powtórzył to zdanie, ostrzeżenie: „W miarę powiększania się tych systemów możliwe jest, że obecny kierunek technologii nigdy nie zapewni niezbędnych gwarancji bezpieczeństwa.”
Brak konkretnych strategii bezpieczeństwa egzystencjalnego był szczególnie niepokojący, biorąc pod uwagę rosnące możliwości systemów sztucznej inteligencji. Recenzenci podkreślili, że bez jasnych ram ryzyko stwarzane przez AGI może szybko wzrosnąć.
Historia Indeksu Bezpieczeństwa AI
Indeks Bezpieczeństwa AI opiera się na poprzednich Inicjatywy FLI, w tym szeroko omawiany „list wstrzymujący” na 2023 r., w którym wezwano o tymczasowe wstrzymanie rozwoju zaawansowanych systemów sztucznej inteligencji w celu ustalenia solidnych protokołów bezpieczeństwa
List podpisany przez ponad 33 700 osób, w tym tak znane nazwiska, jak Elon Musk i Steve Wozniak, został ostatecznie zignorowany przez Komisję. docelowych firm Indeks 2024 reprezentuje najnowsze wysiłki FLI mające na celu pociągnięcie branży do odpowiedzialności poprzez publiczną ocenę firm pod kątem ich praktyk bezpieczeństwa.
Według Stuarta Russella, profesora informatyki na Uniwersytecie Kalifornijskim w Berkeley i jednego z recenzentów raportu: „Wyniki sugerują, że chociaż istnieje duża aktywność w firmach zajmujących się sztuczną inteligencją pod hasłem „bezpieczeństwo”, nie jest ona jeszcze zbyt skuteczna. Żadna z bieżących działalności nie zapewnia ilościowej gwarancji bezpieczeństwa.”
Indeks ma na celu wspieranie przejrzystości, wzmacnianie pozycji wewnętrznych zespołów ds. bezpieczeństwa i zachęcanie do nadzoru zewnętrznego w celu zapobiegania potencjalnie katastrofalnym ryzykom.
Wezwanie do nadzoru regulacyjnego
Raport FLI kończy się wezwaniem do wprowadzenia silniejszych ram regulacyjnych w celu usunięcia luk zidentyfikowanych w Indeksie. Tegmark zaproponował utworzenie organu nadzoru podobnego do the Amerykańska Agencja ds. Żywności i Leków (FDA) oceni systemy sztucznej inteligencji przed ich wdrożeniem
Taka agencja mogłaby egzekwować obowiązkowe standardy bezpieczeństwa, przesuwając presję konkurencyjną branży z priorytetu szybkości na bezpieczeństwo.
Laureat nagrody Turinga Yoshua Bengio, kolejny panelista Indeksu, poparł tę propozycję, stwierdzając: „Takie oceny podkreślają praktyki bezpieczeństwa i zachęcają firmy do przyjęcia bardziej odpowiedzialnego podejścia”. Bengio argumentował, że niezależny nadzór jest niezbędny, aby mieć pewność, że spółki nie idą na skróty w dążeniu do dominacji na rynku.
Jak sporządzono indeks
The 2024 Indeks bezpieczeństwa AI został opracowany w wyniku skrupulatnego procesu oceny prowadzonego przez panel siedmiu niezależnych ekspertów, w tym Bengio, Russella i założycielkę Encode Justice Sneha Revanur.
Panel ocenił firmy według 42 wskaźników obejmujących sześć kategorii: ocena ryzyka, bieżące szkody, przejrzystość, zarządzanie, bezpieczeństwo egzystencjalne i komunikacja.
W metodologii połączono dane publiczne, takie jak dokumenty polityczne, artykuły badawcze i raporty branżowe, wraz z odpowiedziami na niestandardowy kwestionariusz. Jednak ograniczony udział firm w tym procesie uwydatnił wyzwania związane z osiągnięciem przejrzystości w branży.
David Krueger, panelista i badacz sztucznej inteligencji, zauważył: „To przerażające, że same firmy, których liderzy przewidują, że sztuczna inteligencja może koniec ludzkości nie ma strategii, która mogłaby zapobiec takiemu losowi.”
Konsekwencje dla przyszłości zarządzania sztuczną inteligencją
Indeks bezpieczeństwa sztucznej inteligencji na rok 2024 rysuje się otrzeźwiający obraz obecnego stanu zarządzania sztuczną inteligencją Chociaż firmy takie jak Anthropic czynią postępy, ogólne ustalenia wskazują na brak przygotowania do zarządzania zagrożeniami stwarzanymi przez zaawansowane technologie sztucznej inteligencji.
W raporcie wzywa się do podjęcia pilnych działań ustanowić silniejsze protokoły bezpieczeństwa i nadzór regulacyjny, aby zapewnić zgodność rozwoju sztucznej inteligencji z interesami społecznymi.
Jak Tegmark zauważono: „Bez nacisków zewnętrznych i solidnych standardów wyścig w rozwoju sztucznej inteligencji może prowadzić do katastrofalnych konsekwencji”.