Gubernator Kalifornii Gavin Newsom podpisał w poniedziałek pierwsze główne prawo bezpieczeństwa AI, pozycjonując państwo jako lidera w regulacji zaawansowanej sztucznej inteligencji.

Nowe prawo, znane jako Senat Bill 53, wymaga od deweloperów potężnych modeli AI „granicy” do zwiększenia przejrzystości przez

Law odzwierciedla staranie się o to. W jego podpisanie wiadomości Kewager powiedział, że Bill zapewnia, że ​​„Kalifornijczycy-i przez rozszerzenie, naród-może mieć większą pewność, że modele ai są odpowiedzialnie odpowiedzialne i rozwinięte, a także modele ai są odpowiedzialnie odpowiedzialne. wdrożony.”

Od weto do zwycięstwa: kontrowersyjna droga do SB 53

Ścieżka do SB 53 była pełna konfliktu, podkreślając głębokie podziały w związku z tym, jak uregulować technologię ewoluującą przy odwróconej prędkości. To prawo jest starannie wynegocjowanym następcą znacznie surowszego rachunku, SB 1047, który Newsom zawetował pod koniec 2024 r.

, że wcześniejszy rachunek stanął w obliczu ściany sprzeciwu spółek technologicznych i venture capital. Argumentowali, że jego sztywne zasady zgodności, które wymagałyby testów bezpieczeństwa dla modeli z kosztami szkolenia ponad 100 milionów dolarów, stłumiłyby innowacje i wyprowadziłyby biznes z państwa.

Po weto, Newsom zlecił panelu ekspertów AI z instytucji takich jak Stanford Institute for Human-Centered Human Intelligence (HAI) do

Wiener opisał ostateczny rachunek jako zrównoważone podejście, stwierdzając, że „z technologią tak transformacyjną jak AI, ponosimy odpowiedzialność za innowacje, jednocześnie wprowadzając gaminerskie poręcze, aby zrozumieć i zmniejszyć ryzyko.” Wymaga

Przejrzystość w Frontier Artificial Intelligence Act (TFAIA) wprowadza kilka kluczowych mandatów dla programistów. Podstawą prawa jest wymóg przejrzystości: firmy muszą publicznie opublikować ramy opisujące ich protokoły bezpieczeństwa i bezpieczeństwa.

Stwarza również nowy mechanizm dla firm i społeczeństwa, aby zgłosić „potencjalne krytyczne incydenty bezpieczeństwa” w biurze służb ratowniczych w Kalifornii. Aby zachęcić do odpowiedzialności wewnętrznej, prawo zapewnia solidną ochronę demaskatorom, którzy ujawniają znaczące zagrożenia dla zdrowia i bezpieczeństwa.

Ponadto projekt ustawy ustanawia nowe konsorcjum o nazwie CalCompute. Ciało to ma za zadanie opracować ramy dla publicznego klastra obliczeniowego w celu rozwinięcia badań nad bezpieczną, etyczną i sprawiedliwą sztuczną inteligencją, zapewniając innowacje nie są napędzane wyłącznie przez prywatne zainteresowania korporacyjne.

podzielona branża: reakcja mieszanej i strategicznej Big Tech

reakcja z branży AI było badaniem, przesuwając się z unii i strategicznej obsługi. Anthropic, główne laboratorium AI, stał się wokalnym zwolennikiem ustawy po współpracy z senatorem Wienerem, aby udoskonalić jej język.

Współzałożyciel Jack Clark chwalił wynik, stwierdzając: „Jesteśmy dumni z pracy z senatorem Wienerem, aby pomóc przemysłowi do stołu i rozwijać praktyczne zabezpieczenia, które tworzą prawdziwą odpowiedzialność za rozwój potężnych systemów AI.”

program, w którym można sprowadzić przemysł do stołu i rozwinąć praktyczne zabezpieczenia, które tworzą prawdziwą odpowiedzialność za AI. lobbowany przeciwko poprzednim rachunku, oferował bardziej zmierzone rekomendacje. Rzecznik Openai zauważył: „Z przyjemnością zobaczyliśmy, że Kalifornia stworzyła krytyczną ścieżkę do harmonizacji z rządem federalnym-najskuteczniejsze podejście do bezpieczeństwa AI.”

Sygnalizuje to wyraźną preferencję dla jednolitego federalnego podejścia nad mozaiką przepisów stanowych. Rzecznik Meta powtórzył to, wyrażając chęć kontynuowania współpracy z prawodawcami.

Jednak krytycy pozostają głośni. Chamber of Progress, grupa lobbingowa technologiczna, ostrzegła prawo „może wysłać chłodny sygnał do następnej generacji przedsiębiorców, którzy chcą zbudować tutaj w Kalifornii.”

Ten sentyment został udostępniony przez Venture Capital. Kierownik spraw rządowych Andreessen Horowitz, Collin McCune, argumentował, że „tęskni za ważnym znakiem, regulując sposób rozwoju technologii-ruch, który ryzykuje, że wyciskając start-upy, spowalniając innowacje i umocniając największych graczy.”

walczymy o krajową strategię AI, która daje małą technikę, a u USA. Bill AI (SB 53)

zawiera przemyślane przepisy, które uwzględniają wyraźne potrzeby startupów. Ale nie ma ważnego znaku, regulując, w jaki sposób technologia…

-Collin McCune (@Collin_MCCune)

Kalifornii kroki do federalnej pustki

Z tym prawem Kalifornia wykonuje odważny ruch, aby ustalić agendę regulacji AI w Stanach Zjednoczonych. Dominacja gospodarcza i technologiczna państwa nadaje jej polityce silny wpływ, potencjalnie tworząc de facto krajowy standard przy braku działań Waszyngtonu D.C.

Nie pozostało to niezauważone przez federalnych prawodawców. Senator USA, Ted Cruz, był wokalnym przeciwnikiem zasad AI na poziomie państwowym, niedawno pytając retorycznie: „Czy naprawdę chcesz Gavina Newsom i Karen Bass i towarzysza Mamdani w Nowym Jorku, ustalając zasady AI i rządzenia AI AI w tym kraju? Myślę, że to byłoby kataklizactwo.” rządzenie. Na razie Kalifornia sama wyprzedza, obstawiając, że jej podejście może stać się modelem dla narodu.

, jak oświadczył gubernator Newsom w swoim ogłoszeniu: „Przyszłość zdarza się tutaj najpierw”. Świat technologii obserwuje teraz, czy ma rację.