Wiener opisał ostateczny rachunek jako zrównoważone podejście, stwierdzając, że „z technologią tak transformacyjną jak AI, ponosimy odpowiedzialność za innowacje, jednocześnie wprowadzając gaminerskie poręcze, aby zrozumieć i zmniejszyć ryzyko.” Wymaga
Przejrzystość w Frontier Artificial Intelligence Act (TFAIA) wprowadza kilka kluczowych mandatów dla programistów. Podstawą prawa jest wymóg przejrzystości: firmy muszą publicznie opublikować ramy opisujące ich protokoły bezpieczeństwa i bezpieczeństwa.
Stwarza również nowy mechanizm dla firm i społeczeństwa, aby zgłosić „potencjalne krytyczne incydenty bezpieczeństwa” w biurze służb ratowniczych w Kalifornii. Aby zachęcić do odpowiedzialności wewnętrznej, prawo zapewnia solidną ochronę demaskatorom, którzy ujawniają znaczące zagrożenia dla zdrowia i bezpieczeństwa.
Ponadto projekt ustawy ustanawia nowe konsorcjum o nazwie CalCompute. Ciało to ma za zadanie opracować ramy dla publicznego klastra obliczeniowego w celu rozwinięcia badań nad bezpieczną, etyczną i sprawiedliwą sztuczną inteligencją, zapewniając innowacje nie są napędzane wyłącznie przez prywatne zainteresowania korporacyjne.
podzielona branża: reakcja mieszanej i strategicznej Big Tech
reakcja z branży AI było badaniem, przesuwając się z unii i strategicznej obsługi. Anthropic, główne laboratorium AI, stał się wokalnym zwolennikiem ustawy po współpracy z senatorem Wienerem, aby udoskonalić jej język.
Współzałożyciel Jack Clark chwalił wynik, stwierdzając: „Jesteśmy dumni z pracy z senatorem Wienerem, aby pomóc przemysłowi do stołu i rozwijać praktyczne zabezpieczenia, które tworzą prawdziwą odpowiedzialność za rozwój potężnych systemów AI.”
program, w którym można sprowadzić przemysł do stołu i rozwinąć praktyczne zabezpieczenia, które tworzą prawdziwą odpowiedzialność za AI. lobbowany przeciwko poprzednim rachunku, oferował bardziej zmierzone rekomendacje. Rzecznik Openai zauważył: „Z przyjemnością zobaczyliśmy, że Kalifornia stworzyła krytyczną ścieżkę do harmonizacji z rządem federalnym-najskuteczniejsze podejście do bezpieczeństwa AI.”
Sygnalizuje to wyraźną preferencję dla jednolitego federalnego podejścia nad mozaiką przepisów stanowych. Rzecznik Meta powtórzył to, wyrażając chęć kontynuowania współpracy z prawodawcami.
Jednak krytycy pozostają głośni. Chamber of Progress, grupa lobbingowa technologiczna, ostrzegła prawo „może wysłać chłodny sygnał do następnej generacji przedsiębiorców, którzy chcą zbudować tutaj w Kalifornii.”
Ten sentyment został udostępniony przez Venture Capital. Kierownik spraw rządowych Andreessen Horowitz, Collin McCune, argumentował, że „tęskni za ważnym znakiem, regulując sposób rozwoju technologii-ruch, który ryzykuje, że wyciskając start-upy, spowalniając innowacje i umocniając największych graczy.”
walczymy o krajową strategię AI, która daje małą technikę, a u USA. Bill AI (SB 53)
zawiera przemyślane przepisy, które uwzględniają wyraźne potrzeby startupów. Ale nie ma ważnego znaku, regulując, w jaki sposób technologia…
-Collin McCune (@Collin_MCCune)
Kalifornii kroki do federalnej pustki
Z tym prawem Kalifornia wykonuje odważny ruch, aby ustalić agendę regulacji AI w Stanach Zjednoczonych. Dominacja gospodarcza i technologiczna państwa nadaje jej polityce silny wpływ, potencjalnie tworząc de facto krajowy standard przy braku działań Waszyngtonu D.C.
Nie pozostało to niezauważone przez federalnych prawodawców. Senator USA, Ted Cruz, był wokalnym przeciwnikiem zasad AI na poziomie państwowym, niedawno pytając retorycznie: „Czy naprawdę chcesz Gavina Newsom i Karen Bass i towarzysza Mamdani w Nowym Jorku, ustalając zasady AI i rządzenia AI AI w tym kraju? Myślę, że to byłoby kataklizactwo.” rządzenie. Na razie Kalifornia sama wyprzedza, obstawiając, że jej podejście może stać się modelem dla narodu.
, jak oświadczył gubernator Newsom w swoim ogłoszeniu: „Przyszłość zdarza się tutaj najpierw”. Świat technologii obserwuje teraz, czy ma rację.