Szesnaście czołowych firm zajmujących się sztuczną inteligencją, w tym Google, Microsoft, IBM i OpenAI, zgodziło się dezaktywować swoje technologie, jeśli wykazują oznaki powodowania szkodliwych skutków. Zobowiązanie to zostało podjęte podczas Szczyt AI w Seulu 2024 w Korei Południowej, ważne wydarzenie po zeszłorocznym Szczycie Bezpieczeństwa AI. Efektem poprzedniego szczytu była Deklaracja z Bletchley, podpisana przez 28 krajów i UE, w której nakreślono wizję zarządzania ryzykiem związanym ze sztuczną inteligencją bez wiążących zobowiązań.
Zobowiązania w zakresie bezpieczeństwa granicznego AI
Szczyt w Seulu wprowadził zobowiązania dotyczące bezpieczeństwa granicznej sztucznej inteligencji, które nakładają na uczestniczące firmy obowiązek publikowania ram bezpieczeństwa. Ramy te szczegółowo opisują sposób, w jaki planują mierzyć ryzyko związane z modelami sztucznej inteligencji i zarządzać nim. Firmy muszą określić, kiedy ryzyko staje się niedopuszczalne, i nakreślić działania, jakie podejmą w takich scenariuszach. Jeśli środki ograniczające ryzyko zawiodą, sygnatariusze zobowiązali się do wstrzymania rozwoju lub wdrożenia problematycznego modelu lub systemu sztucznej inteligencji.
Sygnatariusze zobowiązali się do kilku inicjatyw, w tym do łączenia czerwonych zespołów w swoje modele sztucznej inteligencji, dzielenia się informacjami, inwestowania w cyberbezpieczeństwie oraz zachęcanie do zgłaszania podatności na zagrożenia przez strony trzecie. Zobowiązali się także do oznaczania treści generowanych przez sztuczną inteligencję, priorytetowego traktowania badań nad zagrożeniami społecznymi i wykorzystywania sztucznej inteligencji do stawiania czoła globalnym wyzwaniom.
Wśród sygnatariuszy są OpenAI, Microsoft, Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Instytut Innowacji, xAI i Zhipu.ai. Oczekuje się, że szczegóły tych zobowiązań zostaną sfinalizowane na „Szczyt dotyczący działań w zakresie sztucznej inteligencji” zaplanowany na początek 2025 r..
Organizacje zgodziły się na następujące Frontier AI Zobowiązania dotyczące bezpieczeństwa:
„Rezultat 1. Organizacje skutecznie identyfikują, oceniają i zarządzają ryzykiem podczas opracowywania i wdrażania swoich pionierskich modeli i systemów sztucznej inteligencji. Będą:
I. Ocenić ryzyko stwarzane przez ich pionierskie modele lub systemy w całym cyklu życia sztucznej inteligencji, w tym przed wdrożeniem tego modelu lub systemu oraz, w stosownych przypadkach, przed szkoleniem i w jego trakcie. Oceny ryzyka powinny uwzględniać możliwości modeli i kontekst, w jakim są one opracowywane, oraz wdrożone, jak również skuteczność wdrożonych środków łagodzących w celu ograniczenia ryzyka związanego z ich przewidywalnym użyciem i niewłaściwym użyciem. Powinni także, w stosownych przypadkach, uwzględnić wyniki ocen wewnętrznych i zewnętrznych, takich jak niezależne osoby oceniające, ich rządy krajowe [przypis 2]. ] oraz inne organy, które ich rządy uznają za odpowiednie.
II. Określ progi [przypis 3], przy których poważne ryzyko stwarzane przez model lub system, jeśli nie zostanie odpowiednio złagodzone, zostanie uznane za niedopuszczalne. Oceń, czy te progi zostały przekroczone, w tym monitoruj, jak blisko modelu lub systemu jest takie naruszenie. Progi te należy określić przy udziale zaufanych podmiotów, w tym, w stosownych przypadkach, odpowiednich władz krajowych organizacji. Powinny dostosować się do odpowiednich umów międzynarodowych, których stroną są rządy ich krajów. Należy do nich także dołączyć wyjaśnienie sposobu ustalenia progów oraz konkretne przykłady sytuacji, w których modele lub systemy stwarzałyby niedopuszczalne ryzyko.
III. Proszę określić, w jaki sposób środki łagodzące ryzyko zostaną zidentyfikowane i wdrożone, aby utrzymać ryzyko w określonych progach, w tym środki łagodzące ryzyko związane z bezpieczeństwem i ochroną, takie jak modyfikowanie zachowań systemu i wdrażanie solidnych mechanizmów kontroli bezpieczeństwa dla niepublikowanych wag modeli.
IV. Określ wyraźne procesy, które zamierzają zastosować, jeśli ich model lub system stwarza ryzyko, które osiąga lub przekracza wcześniej określone progi. Obejmuje to procesy mające na celu dalszy rozwój i wdrażanie systemów i modeli wyłącznie w przypadku oceny, że ryzyko szczątkowe utrzyma się poniżej progów. W skrajnym przypadku organizacje zobowiązują się w ogóle nie opracowywać ani nie wdrażać modelu lub systemu, jeśli nie można zastosować środków ograniczających ryzyko w celu utrzymania ryzyka poniżej progów.
V. Stale inwestuj w poprawę ich zdolności do realizacji zobowiązań i-iv, w tym ocenę i identyfikację ryzyka, określenie progów i skuteczność łagodzenia. Powinno to obejmować procesy oceny i monitorowania adekwatności środków łagodzących oraz identyfikację dodatkowych środków łagodzących, jeśli jest to konieczne, aby zapewnić, że ryzyko pozostanie poniżej wcześniej określonych progów. Będą przyczyniać się do tworzenia nowych najlepszych praktyk, standardów międzynarodowych i nauki w zakresie identyfikacji, oceny i łagodzenia ryzyka związanego ze sztuczną inteligencją oraz uwzględniać je.
Wynik 2. Organizacje są odpowiedzialne za bezpieczny rozwój i wdrażanie swojej granicy Modele i systemy AI. Będą:
VI. Przestrzegaj zobowiązań określonych w punktach I-V, w tym poprzez opracowywanie i ciągłe przeglądanie wewnętrznych ram odpowiedzialności i zarządzania oraz przydzielanie w tym celu ról, obowiązków i wystarczających zasobów.
Rezultat 3. Podejścia organizacji do pionierskiej sztucznej inteligencji bezpieczeństwa były odpowiednio przejrzyste dla podmiotów zewnętrznych, w tym rządów. Będą:
VII. Zapewnić publiczną przejrzystość w zakresie wdrażania powyższych punktów (I-VI), z wyjątkiem przypadków, w których zwiększałoby to ryzyko lub ujawniało wrażliwe informacje handlowe w stopniu nieproporcjonalnym do korzyści społecznych. Powinny nadal udostępniać bardziej szczegółowe informacje, których nie można udostępniać publicznie zaufanym podmiotom, w tym, w stosownych przypadkach, ich odpowiednim rządom krajowym lub wyznaczonemu organowi.
VIII. Wyjaśnij, w jaki sposób, jeśli w ogóle, podmioty zewnętrzne, takie jak rządy, społeczeństwo obywatelskie, naukowcy i społeczeństwo, są zaangażowane w proces oceny ryzyka związanego z ich modelami i systemami sztucznej inteligencji, adekwatności ich ram bezpieczeństwa (zgodnie z opisem w sekcji I-VI) i ich przestrzeganie tych ram.”
Globalna współpraca i plany na przyszłość
We wspólnie napisanym artykule Premier Wielkiej Brytanii Rishi Sunak i prezydent Korei Południowej Yoon Suk Yeol podkreślili pilną potrzebę przyspieszenia wysiłki w zakresie zarządzania sztuczną inteligencją Podczas szczytu w Seulu przyjęto także deklarację z Seulu, w której podkreślono znaczenie interoperacyjności ram zarządzania sztuczną inteligencją w celu maksymalizacji korzyści i ograniczenia ryzyka Deklaracja ta została poparta przez przedstawicieli G7, Singapuru, Australia, ONZ, OECD i UE wraz z liderami branży.