A empresa de segurança AI Antrópica está enfrentando calor do governo Trump depois que se recusou a permitir que seus modelos sejam usados ​​para determinados fins de aplicação da lei.

De acordo com semefer , a empresa recorda os solicitados

Isso tem oficiais da Casa Branca irritados, que esperam que as empresas de IA americanas atuem como parceiros patrióticos. Plataformas de IA para Washington por uma taxa nominal. Esse confronto coloca os corrimãos éticos da empresa contra os objetivos do governo. Openai, antropia e Google foram aprovados como fornecedores do governo, provocando uma guerra de preços. Cada empresa ofereceu sua suíte de IA de nível empresarial por uma taxa simbólica-US $ 1 ou menos-a penetração no mercado em relação ao lucro imediato.

Essa estratégia visa incorporar sua tecnologia profundamente nos fluxos de trabalho do governo. Ao se tornar indispensáveis, eles esperam moldar a política futura de IA e garantir contratos lucrativos e de preço total. A Geral Services Administration (GSA) incentivou isso, buscando promover um mercado dinâmico. Disponível.

Um confronto de princípios: Antrópico desenha uma linha de vigilância

A recusa da Anthrópica em dobrar suas regras para a aplicação da lei criou uma brecha significativa com a Casa Branca. A política de uso aceitável da empresa proíbe explicitamente o uso de sua IA para vigilância, incluindo o monitoramento de indivíduos sem o seu consentimento . A política da OpenAI, por exemplo, proíbe o”monitoramento não autorizado”, que deixa espaço para atividades de aplicação da lei sancionadas legalmente . A linha dura do Anthrópica é vista por alguns dentro da administração como um julgamento moral em suas operações.

O conflito levou outras empresas de IA a revisar suas próprias políticas sobre o assunto. O CEO da empresa, Dario Amodei, declarou anteriormente: “A liderança da IA ​​da América exige que nossas instituições governamentais tenham acesso às ferramentas de IA mais capazes e seguras disponíveis,”um sentimento agora sendo testado por pressão política. Informações sensíveis permanecem protegidas enquanto permitem que as agências se beneficiem das eficiências orientadas pela IA. O controverso chatbot para uso federal, revertendo uma proibição em vigor depois que gerou conteúdo anti-semita.

A aprovação de Grok veio, apesar de um histórico de falhas de segurança e violações éticas. Essa decisão sugere que a administração pode priorizar o alinhamento e a lealdade percebidos sobre os registros de segurança documentados, criando um cenário complexo e contraditório para os fornecedores de IA que navegam em Washington. Em julho, o Pentágono concedeu grandes contratos ao Google, OpenAI e Anthropic to Fuel Defense Innovation. Essa pista de adoção militar paralela ressalta a profunda integração da tecnologia na segurança nacional. Google CEO Sundar Pichai highlighted this mission-driven approach, noting, “Gemini for Government gives federal agencies access to our full stack approach to AI innovation…so they can deliver on their important missions.”

Yet, the clash between Anthropic’s policies and the White House’s demands shows that the path to becoming a trusted government partner is fraught with ethical and political challenges.

Categories: IT Info