TL;DR
Ação conjunta: OpenAI, Anthropic e Google estão colaborando por meio do Frontier Model Forum para detectar cópias não autorizadas de modelos de IA por empresas chinesas. A ameaça: a destilação permite que empresas rivais repliquem capacidades de IA de ponta de forma barata, custando bilhões anualmente ao Vale do Silício. Principais alegações: A Anthropic nomeou DeepSeek, Moonshot e MiniMax como empresas que copiaram ilegalmente seu modelo Claude. Barreira Antitruste: O compartilhamento de métodos de detecção entre concorrentes corre o risco de expor detalhes da arquitetura do modelo proprietário sob escrutínio antitruste. Papel do Governo: O Plano de Acção de IA da administração Trump apela à criação de um centro de partilha de informações para abordar a destilação adversária como uma questão de segurança nacional.
OpenAI, Anthropic e Google estão unindo forças para combater a cópia não autorizada de seus modelos de IA por empresas chinesas, trabalhando por meio do Frontier Model Forum para detectar e combater tentativas de destilação que os EUA autoridades dizem que custa bilhões ao Vale do Silício anualmente.
Impulsionar a colaboração é um alinhamento raro entre concorrentes ferozes. Autoridades alertam que a destilação não autorizada drena bilhões de lucros anuais dos laboratórios de IA dos EUA e que cópias simplificadas de modelos de fronteira podem contornar as principais barreiras de segurança, criando riscos à segurança nacional que se estendem muito além do setor de tecnologia. Labs
A destilação é uma técnica em que um modelo maior de IA de “professor” treina um modelo menor de “aluno” que replica muitas das capacidades do original por uma fração do custo. Quando aplicado aos modelos próprios de uma empresa, o método é uma ferramenta legítima de pesquisa. Aplicado sem autorização ao sistema de um concorrente, no entanto, permite que os rivais reduzam anos de investigação e milhares de milhões de investimentos.
A ameaça tornou-se concreta em janeiro de 2025, quando a DeepSeek lançou o seu modelo de raciocínio R1, que correspondia às capacidades de IA dos EUA a um custo dramaticamente mais baixo. A Microsoft e a OpenAI investigaram posteriormente se o DeepSeek havia exfiltrado dados indevidamente dos modelos da OpenAI para criar o R1. Os funcionários da DeepSeek supostamente desenvolveram código para acessar modelos de IA dos EUA e obter resultados para destilação de maneiras programáticas que violavam os termos de serviço das plataformas.
A OpenAI acusou a DeepSeek de aproveitar recursos desenvolvidos por laboratórios de fronteira dos EUA, enquanto a Anthropic apontou DeepSeek, Moonshot e MiniMax como tendo copiado ilegalmente as capacidades de Claude por meio de destilação.
Identificamos ataques de destilação em escala industrial em nossos modelos da DeepSeek, Moonshot AI e MiniMax.
Esses laboratórios criaram mais de 24.000 contas fraudulentas e geraram mais de 16 milhões de trocas com Claude, extraindo seus recursos para treinar e melhorar seus próprios modelos.
— Anthropic (@AnthropicAI) 23 de fevereiro de 2026
Com base nessas alegações, o padrão se aprofundou com o tempo. A OpenAI fortaleceu sua infraestrutura de segurança contra a espionagem DeepSeek em julho de 2025 em resposta às preocupações de espionagem ligadas ao DeepSeek. Um Comitê da Câmara dos EUA classificou o DeepSeek como uma ameaça à segurança nacional em abril de 2025. Em janeiro de 2026, a Microsoft informou que o DeepSeek estava conquistando participação de mercado no Sul Global a uma taxa duas a quatro vezes maior que a dos concorrentes ocidentais.
Como resultado, o Frontier Model Forum, originalmente fundado em 2023 pela OpenAI, Anthropic, Google e Microsoft para lidar com os riscos de segurança da IA, está agora sendo reaproveitado como o veículo para esta campanha anti-destilação. A Microsoft, membro fundador do Fórum, não aderiu publicamente ao novo esforço, mas anteriormente levantou suas próprias preocupações sobre as práticas do DeepSeek.
Obstáculos antitruste e resposta governamental
O Google tem relatou um aumento significativo nas tentativas de roubar as capacidades de seus modelos de IA, adicionando peso às acusações da OpenAI e da Anthropic. No entanto, a colaboração enfrenta uma restrição fundamental: a partilha de informações entre concorrentes continua limitada pela incerteza sobre o que as regras antitrust permitem. O compartilhamento de métodos de detecção, por exemplo, pode revelar inadvertidamente detalhes de arquitetura de modelo proprietário que os concorrentes podem explorar comercialmente.
O CEO da Anthropic, Dario Amodei, alertou separadamente contra o envio de chips de IA para a China em meio à pressão do Congresso, ressaltando o alinhamento geopolítico mais amplo entre os líderes de IA dos EUA, mesmo quando as preocupações antitruste restringem sua coordenação. não pode resolver este problema sozinho. Adversários estrangeiros poderiam usar a destilação para desenvolver modelos de IA sem barreiras de segurança, incluindo limites que impeçam a criação de instruções para patógenos mortais. Se o Frontier Model Forum conseguirá superar o atrito antitruste com rapidez suficiente para combater uma ameaça que se move na velocidade do software continua sendo a questão central para uma indústria que raramente encontrou motivos para cooperar.