Antrópico enviou um conjunto detalhado de recomendações políticas de IA ao Escritório de Política de Ciência e Tecnologia da Casa Branca (OSTP), pedindo uma aprimoramento do governo do desenvolvimento da inteligência artificial.
Anthropic’s AI Regulation Proposal and National Security Focus
The new policy recommendations submitted to OSTP focus on six key areas, including national security testing of AI models, tightening Restrições de exportação de semicondutores e garantir que os laboratórios de pesquisa de IA tenham canais de comunicação seguros com agências de inteligência. Métodos de coleta de dados econômicos para medir melhor as interrupções orientadas pela IA no mercado de trabalho.
Anthrópica enquadrou sua proposta como uma resposta aos rápidos avanços nas capacidades da IA. A empresa alerta que os sistemas de IA estão progredindo a uma taxa sem precedentes, com modelos capazes de superar especialistas humanos em áreas como desenvolvimento de software, tomada de decisão e pesquisa. Ameaças de segurança cibernética colocadas pelo uso indevido de IA. Um relatório recente da Microsoft constatou que os ataques cibernéticos acionados por IA aumentaram para mais de 600 milhões de incidentes por dia, com grupos de hackers apoiados pelo estado da Rússia, China e Irã, alavancando a IA para ataques de segurança cada vez mais sofisticados. Remove os compromissos da IA da era Biden
Ao defender regulamentos mais apertados, o antrópico apagou simultaneamente vários compromissos políticos de IA que fez anteriormente sob a administração Biden. Os compromissos, focados na escala responsável de IA e mitigação de riscos, foram silenciosamente removidos do site da Anthropic sem explicação pública. Esse movimento desencadeou especulações sobre se o antrópico está se reposicionando estrategicamente em resposta a mudanças regulatórias ou dinâmica da indústria de mudança. Action
Anthropic’s latest policy push follows its stark warning in November 2024, when it urged global regulators to act within 18 months or risk losing control over AI development.
At the time, the company highlighted several emerging risks, including AI’s ability to autonomously conduct cybersecurity breaches, facilitate biological research, and execute complex tasks with minimal human Supervisão. À medida que os modelos de IA se tornam mais avançados, sua capacidade de gerarfos de profundidade realista e manipular o conteúdo digital apresenta riscos adicionais para a integridade da informação. A Autoridade de Concorrência e Mercados do Reino Unido lançou uma investigação sobre o investimento de US $ 2 bilhões no Google em antropia, avaliando se a parceria poderia reduzir a concorrência no setor de IA. Empresas como antropia, OpenAI e Google estão moldando ativamente a narrativa, mas a intervenção do governo determinará se os compromissos voluntários permanecem uma estratégia regulatória viável ou se regras mais rigorosas serão aplicadas.