Rada UE ostatecznie ukłoniła się swojej ustawie o sztucznej inteligencji, wyznaczając wprowadzenie pionierskich ram regulacyjnych dotyczących sztucznej inteligencji w całej Europie. To ustawodawstwo, opisane przez Komisję Europejską (KE) jako stosujące „podejście oparte na ryzyku”, ma na celu nałożenie bardziej rygorystycznych przepisów na produkty sztucznej inteligencji, które stwarzają większe ryzyko dla społeczeństwa. Celem KE jest zapewnienie, aby technologie sztucznej inteligencji były zarówno bezpieczne, jak i przejrzyste.
Przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka
Systemy sztucznej inteligencji sklasyfikowane jako systemy wysokiego ryzyka, takie jak te stosowane w sektorach krytycznych i w organach ścigania, będą podlegać rygorystycznemu nadzorowi, systemy te będą musiały przechodzić regularne audyty, przechodzić oceny wpływu na prawa podstawowe i być zarejestrowane w centralnej bazie danych Mathieu Michel, belgijski sekretarz stanu ds. cyfryzacji, podkreślił, że ustawa o sztucznej inteligencji kładzie nacisk na zaufanie, przejrzystość i odpowiedzialność. , jednocześnie wspierając innowacje w Europie.
Zabronione praktyki AI
Ustawa o sztucznej inteligencji wyraźnie zakazuje kilku praktyk AI uznawanych za zbyt ryzykowne. Należą do nich manipulacja poznawczo-behawioralna, scoring społecznościowy i predykcyjne działania policyjne oparte na profilowaniu. Ponadto systemy kategoryzujące jednostki według rasy, religii lub orientacji seksualnej są zabronione. Ustawa obejmuje również przyszłą potencjalną sztuczną inteligencję ogólną (AGI), ale zapewnia wyjątki dla zastosowań wojskowych, obronnych i badawczych.
Wdrożenie i globalna zgodność
Ustawa, która ma wejść w życie za dwa lata, zawiera postanowienia dotyczące tworzenia nowych urzędów administracyjnych i panele ekspertów nadzorujące jego wdrażanie. Niezastosowanie się będzie skutkować karami finansowymi obliczonymi jako procent całkowitego rocznego obrotu lub z góry ustaloną kwotą, w zależności od tego, która wartość jest wyższa. Firmy spoza UE, które wykorzystują dane klientów z UE na swoich platformach AI, również będą musiały przestrzegać tych nowych przepisów. Prawnik Patrick van Eecke zwrócił uwagę, że inne kraje mogą przyjąć podobne ramy, podobne do ogólnego rozporządzenia o ochronie danych (RODO).
brytyjskie inicjatywy na rzecz bezpieczeństwa sztucznej inteligencji
W powiązanym rozwoju sytuacji Wielka Brytania i Korea Południowa zapewniły sobie zobowiązania od 16 globalnych firm zajmujących się sztuczną inteligencją, w tym Amazon, Google, IBM, Microsoft i Meta, w celu opracowania bezpiecznych modeli sztucznej inteligencji. Firmy te zgodziły się ocenić ryzyko związane ze swoimi najnowszymi modelami i powstrzymać się od ich wypuszczenia, jeśli ryzyko niewłaściwego użycia jest zbyt wysokie. Niniejsza umowa opiera się na Deklaracji z Bletchley podpisanej w zeszłym roku i ma na celu zapewnienie przejrzystości i odpowiedzialności w rozwoju sztucznej inteligencji, według premiera Wielkiej Brytanii Rishi Sunaka. Jednak to porozumienie nie jest prawnie wiążące.
Unijna ustawa o sztucznej inteligencji stanowi ważny krok w regulacji technologii sztucznej inteligencji, skupiając się na bezpieczeństwie i przejrzystości, a jednocześnie zachęcając do innowacji. Oczekuje się, że konsekwencje tego prawa wykroczą poza Europę, potencjalnie wpływając na regulacje dotyczące sztucznej inteligencji w skali globalnej.