O governador da Califórnia, Gavin Newsom, assinou a primeira grande lei de segurança da IA do país na segunda-feira, posicionando o estado como líder na regulação da inteligência artificial avançada. href=”https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world lkeading-artificial-inteligence-industry/”target=”_ blank”> publicação> segurança Proteções e um sistema de relatórios públicos para incidentes críticos de segurança. Esse movimento visa construir confiança pública e garantir uma inovação responsável no coração da indústria de tecnologia global, preenchendo um vazio regulatório deixado pela inação federal. In his signing message, Newsom said the bill ensures that “Californians – and by extension, the nation – can have greater confidence that frontier AI models are responsibly developed and implantado.”
de veto à vitória: o caminho contencioso para o SB 53
O caminho para o SB 53 foi repleto de conflitos, destacando divisões profundas sobre como regular uma tecnologia evoluindo em velocidade de quebra. Esta lei é um sucessor cuidadosamente negociado para um projeto de lei muito mais rigoroso, SB 1047, que Newsom vetou no final de 2024.
O projeto anterior enfrentou um muro de oposição de empresas de tecnologia e capitalistas de risco. Eles argumentaram suas regras rígidas de conformidade, que exigiriam testes de segurança para modelos com custos de treinamento acima de US $ 100 milhões, sufocariam a inovação e levariam os negócios do estado. href=”https://www.gov.ca.gov/2025/03/18/california-stlenstlens-its-position-as-the-global-ai-eader-with-new-wo-worker-report-issued-by-experts-and-academics/”Target=”_ Blank 53, de autoria do senador estadual Scott Wiener, foi criado diretamente a partir das recomendações desse relatório. Requer
A transparência na Lei de Inteligência Artificial da Frontier (TFAIA) apresenta vários mandatos-chave para os desenvolvedores. O núcleo da lei é um requisito de transparência: as empresas devem publicar publicamente uma estrutura detalhando seus protocolos de segurança e segurança. Para incentivar a responsabilidade interna, a lei fornece proteções robustas para os denunciantes que divulgam riscos significativos de saúde e segurança.
Além disso, o projeto de lei estabelece um novo consórcio chamado CalCompute. Esse órgão tem a tarefa de desenvolver uma estrutura para um cluster de computação pública promover a pesquisa em IA segura, ética e equitativa, garantindo que a inovação não seja acionada apenas por interesses corporativos privados. Anthrópica, um grande laboratório de IA, tornou-se um defensor vocal do projeto depois de trabalhar com o senador Wiener para refinar sua linguagem. havia lobby contra a conta anterior, oferecia mais endossos medidos. Um porta-voz do Openai observou: “Ficamos satisfeitos ao ver que a Califórnia criou um caminho crítico em direção à harmonização com o governo federal-a abordagem mais eficaz à segurança da IA.”
Isso sinaliza uma clara preferência por uma abordagem federal unificada sobre uma colcha de retalhos das leis estaduais. O porta-voz da Meta ecoou isso, expressando o desejo de continuar trabalhando com os legisladores.
No entanto, os críticos permanecem vocais. A Câmara de Progresso, um grupo de lobby de tecnologia, alertou que a lei “poderia enviar um sinal arrepiante para a próxima geração de empreendedores que desejam construir aqui na Califórnia.”
Esse sentimento foi compartilhado por capitalistas de risco. O chefe de assuntos governamentais de Andreessen Horowitz, Collin McCune, argumentou que “perde uma marca importante ao regular como a tecnologia é desenvolvida-um movimento que corre o risco de espremer startups, desacelerando a inovação e a inserção de uma estratégia que lida com a flangmen. A IA Bill (SB 53) inclui algumas disposições atenciosas que representam as necessidades distintas das startups. Mas erra uma marca importante regulando como a tecnologia…