Antrópico enviou um conjunto detalhado de recomendações políticas de IA ao Escritório de Política de Ciência e Tecnologia da Casa Branca (OSTP), pedindo uma aprimoramento do governo do desenvolvimento da inteligência artificial.

que os sistemas AI avançados podem ser os sistemas de AI avançados, os sistemas de AI avançados podem ser os sistemas que podem ser o que pode ser o que pode ser o que pode ser o que pode ser realizado em que os sistemas de AI, os sistemas que podem ser os que se destacam. Os EUA podem não estar preparados para os desafios econômicos e de segurança que essa tecnologia traz. src=”https://winbuzzer.com/wp-content/uploads/2024/12/Anthropic-AI-Safety.jpg”>

Anthropic’s AI Regulation Proposal and National Security Focus

The new policy recommendations submitted to OSTP focus on six key areas, including national security testing of AI models, tightening Restrições de exportação de semicondutores e garantir que os laboratórios de pesquisa de IA tenham canais de comunicação seguros com agências de inteligência. Métodos de coleta de dados econômicos para medir melhor as interrupções orientadas pela IA no mercado de trabalho.

Anthrópica enquadrou sua proposta como uma resposta aos rápidos avanços nas capacidades da IA. A empresa alerta que os sistemas de IA estão progredindo a uma taxa sem precedentes, com modelos capazes de superar especialistas humanos em áreas como desenvolvimento de software, tomada de decisão e pesquisa. Ameaças de segurança cibernética colocadas pelo uso indevido de IA. Um relatório recente da Microsoft constatou que os ataques cibernéticos acionados por IA aumentaram para mais de 600 milhões de incidentes por dia, com grupos de hackers apoiados pelo estado da Rússia, China e Irã, alavancando a IA para ataques de segurança cada vez mais sofisticados. Remove os compromissos da IA ​​da era Biden

Ao defender regulamentos mais apertados, o antrópico apagou simultaneamente vários compromissos políticos de IA que fez anteriormente sob a administração Biden. Os compromissos, focados na escala responsável de IA e mitigação de riscos, foram silenciosamente removidos do site da Anthropic sem explicação pública. Esse movimento desencadeou especulações sobre se o antrópico está se reposicionando estrategicamente em resposta a mudanças regulatórias ou dinâmica da indústria de mudança. Action

Anthropic’s latest policy push follows its stark warning in November 2024, when it urged global regulators to act within 18 months or risk losing control over AI development.

At the time, the company highlighted several emerging risks, including AI’s ability to autonomously conduct cybersecurity breaches, facilitate biological research, and execute complex tasks with minimal human Supervisão. À medida que os modelos de IA se tornam mais avançados, sua capacidade de gerarfos de profundidade realista e manipular o conteúdo digital apresenta riscos adicionais para a integridade da informação. A Autoridade de Concorrência e Mercados do Reino Unido lançou uma investigação sobre o investimento de US $ 2 bilhões no Google em antropia, avaliando se a parceria poderia reduzir a concorrência no setor de IA. Empresas como antropia, OpenAI e Google estão moldando ativamente a narrativa, mas a intervenção do governo determinará se os compromissos voluntários permanecem uma estratégia regulatória viável ou se regras mais rigorosas serão aplicadas.