TL;DR
Memorando interno: O CEO da Anthropic, Dario Amodei, acusou a OpenAI de “mentiras descaradas” e “teatro de segurança” sobre seu acordo de IA com o Pentágono em um memorando da equipe. Negociações fracassadas: A Anthropic abandonou seu contrato com o Departamento de Defesa depois que o Pentágono exigiu acesso irrestrito à sua tecnologia de IA. Acordo da OpenAI: OpenAI interveio para substituir a Anthropic, garantindo um contrato permitindo seus sistemas de IA para “todos os fins legais”. Reação pública: as desinstalações do ChatGPT aumentaram 295% após o acordo, enquanto o aplicativo Claude da Anthropic subiu para o segundo lugar na App Store.
O CEO da Anthropic, Dario Amodei, acusou a OpenAI de “mentiras descaradas” e “teatro de segurança” sobre seu acordo com o Pentágono em um memorando interno para a equipe, de acordo com um relatório da The Information. No memorando, relatado pela primeira vez em 4 de março, Amodei enquadrou a divisão entre os dois rivais da IA em termos rígidos:
“A principal razão pela qual [a OpenAI] aceitou [o acordo do DoD] e nós não o fizemos é que eles se preocupavam em apaziguar os funcionários, e nós realmente nos preocupamos em prevenir abusos.”
Dario Amodei, cofundador e CEO da Anthropic
Seu tom incomumente combativo marca um afastamento da linguagem comedida que os executivos de IA normalmente usam ao discutir divergências de segurança. Chamar de mentiras as declarações públicas de um concorrente direto sugere que a rivalidade ultrapassou a competição pelos clientes e passou a uma batalha sobre qual empresa definirá a IA responsável.
Como as negociações do Pentágono fracassaram
Uma negociação fracassada na semana de 26 de fevereiro preparou o terreno para o confronto. A Anthropic e o Departamento de Defesa não conseguiram chegar a um acordo depois que o Pentágono exigiu acesso irrestrito à tecnologia de IA da empresa. De acordo com registros de contratos governamentais, a Anthropic manteve um contrato militar de US$ 200 milhões por meio de uma parceria com a Palantir e a AWS.
Suas linhas vermelhas incluíam exigências para que o DoD afirmasse que não usaria Claude para vigilância doméstica em massa ou armamento autônomo. No entanto, a linguagem contratual revisada do Pentágono “praticamente não fez nenhum progresso” nessas proteções, disse a Anthropic em uma declaração pública. Durante uma reunião em 24 de fevereiro entre o secretário de Defesa Pete Hegseth e Amodei, oficiais militares alertaram que poderiam designar a Anthropic como um risco na cadeia de suprimentos ou invocar a Lei de Produção de Defesa. O porta-voz do Pentágono, Sean Parnell, deu à Anthropic um prazo de 17h01, horário do leste dos EUA, do dia 27 de fevereiro para cumprir ou enfrentar a rescisão do contrato. Amodei disse que a Anthropic “não pode, em sã consciência, aderir” às exigências do Pentágono.
Como resultado, o senador Thom Tillis (R-NC) questionou “por que diabos”a disputa estava acontecendo em público, considerando que não há maneira de lidar com um relacionamento estratégico com fornecedores. Ao ameaçar um importante fornecedor de IA com uma lista negra, o Pentágono sinalizou uma mudança na forma como os militares abordam a aquisição de tecnologia, priorizando a conformidade em vez da parceria, mesmo correndo o risco de perder o acesso a modelos de ponta.
OpenAI intervém
Dias após a saída da Anthropic, o Departamento de Guerra fechou um acordo com a OpenAI. A OpenAI, que já havia firmado uma parceria com a Anduril para defesa militar de drones, garantiu um contrato que permite o uso de seus sistemas de IA para “todos os fins legais”. Essa formulação é quase idêntica à linguagem de “qualquer uso legal” que a Antrópico rejeitou.
Aproximadamente em 28 de fevereiro, Sam Altman anunciou o acordo em uma postagem de blog, afirmando que incluiria proteções contra as mesmas linhas vermelhas que a Antrópico havia afirmado. A OpenAI argumentou que o Departamento de Guerra considera ilegal a vigilância doméstica em massa e não planeava utilizar IA para esse fim, e que esta exclusão foi explicitada no contrato.
A Disputa do ‘Teatro de Segurança’
Amodei, no entanto, contesta precisamente essa linguagem do contrato. A sua crítica central centra-se na lacuna entre as proibições legais e as salvaguardas aplicáveis. Embora a OpenAI aponte para a lei existente que proíbe a vigilância em massa, os críticos observam que o que se qualifica como ilegal está sujeito a alterações, o que significa que as proteções ancoradas nos estatutos atuais podem não ser válidas em administrações futuras. os investigadores Nathan E. Sanders e Bruce Schneier argumentaram que a posição da Anthropic é em parte uma postura, dadas as suas parcerias de defesa existentes e o seu acordo de 2024 com a empresa de vigilância Palantir. A Anthropic é agora a última grande empresa de IA que não fornece tecnologia para a nova rede interna do Pentágono, depois que o Pentágono concedeu grandes contratos de IA a várias empresas em meados de 2025, com o Google e a xAI já a bordo.
Em termos mais amplos, essa disputa expõe uma tensão fundamental na indústria de IA: se os compromissos de segurança podem sobreviver ao contato com a pressão do governo ou se funcionam principalmente como diferenciadores de marketing até que o que está em jogo se torne real.
Público Fallout
A reação foi imediata. As desinstalações do ChatGPT aumentaram 295% depois que a OpenAI anunciou seu acordo com o Pentágono, enquanto o aplicativo Claude da Anthropic subiu para o segundo lugar na App Store. Em seu memorando, Amodei rejeitou o enquadramento público da OpenAI como uma “tentativa de spin/gaslighting” que estava falhando com o público em geral e a mídia. Ele expressou preocupação, no entanto, de que a mensagem ainda pudesse convencer os funcionários da OpenAI a acreditar que o acordo era baseado em princípios.
Para engenheiros e pesquisadores de ambas as empresas, os riscos vão além da estratégia corporativa. Os funcionários da Antrópico atraídos pela sua missão de segurança em primeiro lugar enfrentam agora a possibilidade de o seu empregador voltar a envolver o Pentágono em termos mais brandos, ou ver a sua relevância na defesa desaparecer.
Entretanto, o Departamento de Defesa estabeleceu um precedente: os fornecedores que recusam as suas condições enfrentam substituição, não negociação. Com a aproximação do próximo ciclo de aquisição de IA do Pentágono, o resultado desta disputa provavelmente determinará quanta alavancagem qualquer empresa de IA manterá na próxima chamada de Washington.
Dario Amodei, cofundador e CEO da Anthropic