Revisão do contrato: OpenAI atualizou seu contrato com o Pentágono para proibir explicitamente o uso de sua IA para vigilância doméstica em massa de pessoas dos EUA, citando as proteções da Quarta Emenda. Reação interna: funcionários da OpenAI e usuários do ChatGPT se revoltaram contra o acordo original, com o proeminente pesquisador Noam Brown se opondo publicamente antes que as salvaguardas fossem adicionadas. Preocupações restantes: Os críticos argumentam que uma referência à Ordem Executiva 12333 no contrato revisto ainda cria uma lacuna potencial para certas formas de vigilância doméstica. Apelo mais amplo: Sam Altman instou o Pentágono a oferecer os mesmos termos contratuais a todas as empresas de IA, incluindo a Anthropic, que foi designada como um risco à segurança da cadeia de abastecimento.
Depois que a Anthropic foi designada como um risco à segurança da cadeia de suprimentos pelo governo dos EUA e banida das agências federais, a OpenAI interveio. Em 24 horas, ela concordou que sua IA poderia ser usada para “todos os usos legais”, a expressão exata que a Anthropic passou meses recusando. A reação de funcionários e usuários forçou uma revisão.
A OpenAI anunciou agora os termos atualizados para seu contrato com o Departamento de Defesa, adicionando proteções explícitas da Quarta Emenda que impedem o Pentágono de usar sua IA para vigilância doméstica em massa. Sam Altman admitiu que o acordo original parecia “oportunista e desleixado”. target=”_blank”>De acordo com o New York Times, Altman contatou o chefe de tecnologia do Pentágono, Emil Michael, apenas um dia depois que o DoD emitiu seu ultimato à Anthropic. Dias depois, a pressão de funcionários e usuários forçou uma revisão desses mesmos termos.
As Novas Cláusulas de Salvaguarda
Esses termos revisados traçaram três linhas vermelhas explícitas. Revisado em 2 de março de 2026, o contrato proíbe a vigilância doméstica em massa, o direcionamento de sistemas de armas autônomos e decisões automatizadas de alto risco, como sistemas de crédito social. Altman compartilhou a linguagem do contrato no X em uma postagem originalmente escrita para a equipe da OpenAI.
Além disso, a linguagem antivigilância também cobre a aquisição ou uso de dados pessoais adquiridos comercialmente, fechando uma brecha potencial que a OpenAI havia identificado anteriormente quando proibiu o reconhecimento facial do Azure OpenAI pelos departamentos de polícia.
A cláusula central do contrato diz:
“Consistente com as leis aplicáveis, incluindo a Quarta Emenda à Constituição dos Estados Unidos, Segurança Nacional Lei de 1947, Lei FISA de 1978, o sistema de IA não deve ser usado intencionalmente para vigilância doméstica de pessoas e nacionais dos EUA.”
Contrato DoD/OpenAI, (via OpenAI)
No entanto, as proteções não podem seja hermético. As leis aplicáveis são referenciadas “tal como existem hoje”, fixando as normas actuais, mesmo que essas leis sejam posteriormente enfraquecidas. Críticos, incluindo Mike Masnick da Techdirt, argumentam que a referência do contrato à Ordem Executiva 12333 cria uma lacuna que ainda poderia permitir certas formas de vigilância doméstica. A OpenAI contesta essa leitura.
Restrições de exclusão e implantação da NSA
Além disso, agências de inteligência como a NSA não estão autorizadas a usar os serviços da OpenAI sob este contrato; qualquer acesso exigiria um acordo separado.
Toda a implantação é apenas na nuvem, sem dispositivos de borda, o que a OpenAI afirma impedir que seus modelos sejam integrados diretamente aos sistemas de armas e permite que o pessoal autorizado da OpenAI permaneça no circuito para aplicações confidenciais.
Um acordo feito em 24 horas, revisado em dias
A velocidade da revisão refletiu a intensidade da revolta interna. Os funcionários da OpenAI questionaram publicamente o acordo do Pentágono sobre o X poucas horas após seu anúncio. A empresa já estava aprofundando seus laços de defesa por meio de sua parceria de defesa de drones OpenAI e Anduril. Enquanto isso, alguns usuários do ChatGPT cancelaram contas e mudaram para Claude da Anthropic, que havia construído parcerias da Anthropic com Palantir e AWS para trabalho de inteligência antes da disputa do Pentágono, empurrando Claude para o número um na App Store da Apple. Entre os críticos internos proeminentes estava Noam Brown, creditado pelo avanço do modelo de raciocínio do ano anterior, que se opôs publicamente antes que as salvaguardas fossem adicionadas.
Com base nessas críticas, Brown posteriormente apoiou os termos revisados e disse que planejava se envolver mais pessoalmente na política de IA na OpenAI.
Brown reconheceu a atualização, mas não chegou ao endosso total, de acordo com o The Decoder: “A linguagem agora está atualizada para resolver isso, mas também acredito fortemente que o mundo não deveria depender da confiança em laboratórios de IA ou agências de inteligência para sua segurança e proteção.”A advertência sinaliza que a correção pode não satisfazer muitos na OpenAI que acreditam que a supervisão estrutural, e não a linguagem contratual, é a salvaguarda adequada contra excessos do governo. há tempo para resolver possíveis brechas de vigilância por meio do processo democrático.
No fim de semana, ficou claro que o texto original do acordo OpenAI/DoW… https://t.co/SxQ7g11ltu
— Noam Brown (@polynoamial) 3 de março de 2026
Altman afirmou que a OpenAI pretende operar por meio de processos democráticos e recusaria ordens inconstitucionais. Ele também pediu ao Pentágono que oferecesse os mesmos termos contratuais a todas as empresas de IA, incluindo a Anthropic, e disse que não acredita que a Anthropic deva ser designada como um risco à segurança da cadeia de suprimentos.
Aqui está uma nova postagem de uma postagem interna:
Temos trabalhado com o DoW para fazer alguns acréscimos em nosso acordo para deixar nossos princípios muito claros.
1. Alteraremos nosso acordo para adicionar este texto, além de todo o resto:
“• Consistente com as leis aplicáveis,…
— Sam Altman (@sama) 3 de março de 2026
Como resultado, a OpenAI disse que o Pentágono planeja convocar um grupo de trabalho de laboratórios de IA de ponta, provedores de nuvem e autoridades políticas, com a participação da OpenAI, para desenvolver padrões mais amplos que regem a implantação de IA militar. Isso reflete o esforço de contratação de IA militar do Pentágono para trazer várias empresas para o grupo. WinBuzzer relatou em meados de 2025, o caminho para este contrato foi aberto por uma mudança de política em 2024, quando a OpenAI retirou silenciosamente sua proibição explícita de uso militar.