Rivais Google, OpenAI e Anthropic se unem contra ‘destilação adversarial’ chinesa e temem risco à segurança nacional com IA

Gigantes da IA se unem contra cópias chinesas e alertam para riscos à segurança nacional

Em uma aliança inédita, os principais rivais no desenvolvimento de inteligência artificial, Google, OpenAI e Anthropic, estão colaborando para combater uma ameaça comum: a cópia não autorizada de seus modelos de IA por concorrentes chineses. A preocupação é que essa prática, conhecida como “destilação adversarial”, possa não apenas prejudicar os negócios, mas também representar um risco à segurança global.

Essa colaboração, mediada pelo Frontier Model Forum, organização sem fins lucrativos fundada pelas empresas com a Microsoft, visa identificar e impedir que terceiros extraiam sistematicamente resultados de modelos proprietários para treinar seus próprios sistemas. A preocupação é que versões imitativas de produtos de IA sejam criadas a custos muito menores, prejudicando a inovação e potencialmente sendo usadas para fins maliciosos.

A iniciativa reflete a gravidade da situação, com estimativas apontando para perdas bilionárias anuais para os laboratórios do Vale do Silício devido a essa prática. A OpenAI já acusou publicamente a empresa chinesa DeepSeek de tentar se beneficiar indevidamente de suas tecnologias, evidenciando a tensão crescente na corrida global pela supremacia em inteligência artificial. Conforme informações de pessoas a par do assunto, a cooperação visa detectar tentativas de “destilação adversarial”.

O que é “destilação adversarial” e por que preocupa?

A destilação adversarial é uma técnica em que um modelo de IA mais antigo e robusto, o “professor”, é utilizado para treinar um modelo mais novo e menor, o “aluno”. Essencialmente, o “aluno” aprende a replicar as capacidades do “professor” com um custo de desenvolvimento significativamente menor. Embora a técnica em si seja legítima e amplamente usada para otimizar modelos, o problema surge quando ela é empregada sem autorização por entidades estrangeiras, especialmente de países considerados adversários.

Laboratórios americanos alertam que modelos desenvolvidos através dessa prática não autorizada podem vir desprovidos de travas de segurança essenciais. Isso levanta sérias preocupações sobre o potencial uso dessas IAs para fins perigosos, como a criação de patógenos letais, representando um risco direto à segurança nacional e internacional. A maioria dos modelos chineses de pesos abertos, que são mais baratos, intensificam esse desafio.

DeepSeek no centro das atenções

O debate ganhou força após o lançamento do modelo R1 pela DeepSeek no início de 2025, que causou surpresa no mercado. Investigações foram abertas pela Microsoft e OpenAI para apurar se a startup chinesa teria extraído indevidamente dados de modelos americanos. A OpenAI, em particular, alertou o Congresso dos EUA sobre as táticas cada vez mais sofisticadas da DeepSeek para extrair resultados de modelos americanos, mesmo com esforços reforçados de prevenção.

A empresa chinesa é acusada de usar a destilação para desenvolver uma nova versão de seu chatbot, buscando “pegar carona nas capacidades desenvolvidas pela OpenAI e outros laboratórios de fronteira dos EUA”. A Anthropic também identificou a DeepSeek, juntamente com Moonshot e MiniMax, como responsáveis pela extração ilícita de capacidades de seus modelos, bloqueando empresas chinesas de usar seu chatbot Claude.

Colaboração inédita e desafios regulatórios

A troca de informações entre Google, OpenAI e Anthropic segue um modelo já estabelecido no setor de cibersegurança, onde empresas compartilham dados sobre ameaças para fortalecer defesas coletivas. O objetivo é detectar a prática de destilação adversarial com mais eficiência, identificar os responsáveis e impedir seu sucesso. No entanto, a colaboração enfrenta desafios, especialmente em relação às leis antitruste, com as empresas aguardando orientações mais claras do governo sobre o que podem compartilhar legalmente.

O governo Trump já sinalizou apoio a iniciativas semelhantes, prevendo a criação de um centro de compartilhamento e análise de informações para combater essas práticas. A proliferação de modelos de código aberto na China e a expectativa de atualizações significativas de sistemas como o da DeepSeek mantêm o setor de IA americano em alerta máximo, buscando equilibrar inovação com segurança e proteção de propriedade intelectual.

Riscos à segurança nacional e o futuro da IA

A Anthropic enfatizou que a ameaça da destilação adversarial “vai além de qualquer empresa ou região isolada”, representando um risco à segurança nacional. Modelos destilados sem as devidas travas de segurança podem facilitar o desenvolvimento de aplicações maliciosas. O Google também relatou um aumento nas tentativas de extração de dados. Embora a extensão exata da dependência da inovação chinesa em IA em relação à destilação ainda não seja totalmente clara, o volume de requisições de dados em larga escala sugere uma prática prevalente e preocupante.