Quem controla o fogo? A IA virou arma militar — e a liberdade está sob ataque

Os primeiros hominídeos, quando dominaram o fogo, não estavam apenas cozinhando carne: estavam decidindo quem sobreviveria. Oitocentos mil anos depois, a humanidade se encontra diante de uma fogueira semelhante; desta vez, contudo, o “fogo” pensa. A inteligência artificial é o novo elemento prometeico, e a corrida para controlá-la já não se disfarça de competição tecnológica.

É uma guerra e, como em toda guerra, as primeiras baixas são a verdade e a liberdade. Mas a última semana de fevereiro de 2026 revelou algo que poucos previram: nessa guerra, o governo dos Estados Unidos revelou-se disposto a tratar uma empresa privada norte-americana como se fosse um inimigo estrangeiro.

O estopim veio da China. Em 23 de fevereiro, a Anthropic, criadora do Claude, possivelmente o mais avançado modelo de IA do mundo, denunciou que três laboratórios chineses (DeepSeek, Moonshot AI e MiniMax) haviam criado cerca de 24 mil contas falsas em sua plataforma, gerando mais de 16 milhões de interações para extrair, por “destilação”, as capacidades mais avançadas do sistema, um ato de espionagem tão clássico na forma quanto inédito no objeto. Mas o que ninguém antecipou foi a resposta do governo norte-americano: em vez de solidarizar-se com a empresa atacada, Washington decidiu atacá-la também.

Em 24 de fevereiro, o secretário de Guerra Pete Hegseth convocou Dario Amodei, CEO da Anthropic, ao Pentágono, exigindo a suspensão das restrições contra vigilância massiva de cidadãos norte-americanos e contra a operação autônoma de sistemas de armas. Amodei recusou. Hegseth deu à empresa até 27 de fevereiro para ceder, ou enfrentar a invocação da Lei de Produção de Defesa (Defense Production Act, de 1950) e a designação como supply chain risk (“risco à cadeia de suprimentos”), classificação reservada a empresas de países adversários.

Amodei observou a contradição: as ameaças são “inerentemente contraditórias”, pois uma designa a empresa como risco, enquanto a outra classifica o Claude como essencial à segurança nacional. Em 26 de fevereiro, escreveu que a empresa “não pode, em boa consciência, aceitar” a exigência. A retaliação foi fulminante: em 27 de fevereiro, Trump ordenou que todas as agências federais cessassem o uso de tecnologia da Anthropic, com seis meses de transição. Hegseth anunciou a designação formal como supply chain risk. Emil Michael, subsecretário de Defesa, chamou Amodei de “mentiroso com complexo de Deus”.

Geopolitização da IA

Convém medir a gravidade do ocorrido. Uma startup norte-americana com valor de mercado estimado em USD 380 bilhões foi designada como risco à segurança nacional, não por espionagem, mas por recusar-se a permitir vigilância massiva de cidadãos e operação de armas sem intervenção humana. A designação, jamais aplicada a uma empresa norte-americana, coloca a Anthropic na mesma categoria que extensões de governos adversários. Enquanto a China tenta roubar o fogo, os Estados Unidos punem quem se recusa a entregá-lo voluntariamente ao Estado.

Se o Pentágono afirma que já é ilegal conduzir vigilância massiva sobre norte-americanos, por que se recusar a formalizar essa restrição em contrato? A Anthropic revelou que a linguagem contratual “praticamente não avançou” e continha dispositivos que permitiriam que as salvaguardas fossem “desconsideradas à vontade”.

Se o governo não pretende fazer o que diz não pretender fazer, por que insiste em manter a porta aberta? É uma dinâmica que inverte a lógica do Projeto Manhattan: nos anos 1940, o governo reuniu cientistas para construir a bomba; agora pressiona empresas que já a construíram a entregarem os códigos de lançamento e pune aquelas que se recusam a fazê-lo.

Estamos assistindo, em tempo real, à geopolitização da IA: uma nova Cortina de Ferro, urdida de silício e dados. Quando um governo decide que a IA é arma, tudo o que toca a IA se converte em domínio de segurança nacional, e tal evolução não é compatível com liberdade de imprensa, privacidade ou qualquer outra característica das sociedades livres.

Para combater a China, argumentam, é preciso construir exatamente o mesmo aparato de vigilância que a China opera. O Pentágono quer modelos sem restrições para “todos os fins legais”, e a legalidade neste domínio é uma ficção temporária. A lei norte-americana ainda não regulamentou o uso de IA para compilar automaticamente, em escala massiva, dados de localização e associações de cidadãos, dados que, combinados por IA, compõem um retrato completo da vida de qualquer pessoa.

Dê a qualquer governo um modelo irrestrito, e o que se tem é o Panopticon de Bentham em escala planetária. Democracias constitucionais não funcionam com base na confiança no poder, mas na desconfiança institucionalizada do poder.

A captura do pensamento

Estados constitucionais não podem, a pretexto de combater seus antagonistas autoritários, empregar os mesmos métodos deles. Se os Estados Unidos constroem um aparato de vigilância massiva movido a IA, a diferença entre Washington e Pequim deixa de ser substantiva e passa a ser meramente nominal. O cidadão americano vigiado por um algoritmo do Pentágono não é mais livre do que o cidadão chinês vigiado por um algoritmo do Ministério da Segurança do Estado

A IA adiciona uma camada inédita a esse risco: ao contrário de um programa de espionagem compartimentalizado, ela permeia a vida cotidiana. Se o Estado capturar os modelos de IA, captura a linguagem, a busca, a educação, o entretenimento, os serviços públicos, a prestação jurisdicional e o sistema eleitoral. Captura, em última instância, o pensamento.

A reação da indústria foi reveladora. Sam Altman, CEO da OpenAI, declarou que compartilha as mesmas “linhas vermelhas” e anunciou um acordo com o Pentágono que preservava esses princípios. Mas se o Pentágono aceitou da OpenAI o que recusou da Anthropic, o problema não era a substância das salvaguardas, mas a ousadia de resistir publicamente. A punição tem componente exemplar: um aviso a toda a indústria.

Se extrapolarmos o contexto da sanha interventora estatal contra empresas de IA para além dos Estados Unidos, concluiremos que a Europa, nesse cenário, enfrenta uma armadilha própria, com contornos que, por analogia, podem incidir sobre laboratórios que desenvolvem modelos de fronteira. Países como França, Alemanha e Reino Unido já demonstram tendências inquietantes de censura digital, legislação de “discurso de ódio” com definições elásticas e sistemas de identidade digital que fariam um burocrata soviético corar de inveja.

A pressão norte-americana para militarizar a IA tende a funcionar como pretexto adicional para que governos europeus ampliem seus já extensos aparatos de vigilância. A OTAN, afinal, exige interoperabilidade, inclusive, agora, interoperabilidade de sistemas de IA autônomos. O que começou como um debate sobre fake news pode terminar como a infraestrutura técnica de um Estado de vigilância continental, operado por algoritmos treinados com objetivos que nenhum eleitor jamais aprovou.

Brasil: cenário de pesadelo

E o Brasil? Aqui, o cenário é particularmente sombrio, não por excesso de poder tecnológico, mas, exatamente, por sua ausência combinada com excesso de apetite autoritário. O país não desenvolve modelos avançados de IA próprios. Depende integralmente de infraestrutura estrangeira (norte-americana). Isso significa que toda decisão tomada em Washington ou em Pequim sobre restrição, direcionamento ou militarização de modelos de IA afeta diretamente o ecossistema digital brasileiro, sem que Brasília tenha voz, voto ou sequer compreensão técnica adequada do que está acontecendo.

O Brasil vive, há pelo menos três anos, uma espiral destrutiva dos direitos e garantias fundamentais. A censura judicial a plataformas digitais, o bloqueio arbitrário de redes sociais, a perseguição a jornalistas e comentaristas políticos, o uso de inquéritos de exceção para criminalizar a opinião e a instrumentalização do sistema judiciário contra adversários políticos já configuram, para qualquer observador honesto, uma deterioração severa do Estado de Direito.

Adicione a esse caldo ferramentas de IA sob controle estatal (ou sob controle de um Estado estrangeiro que pode decidir, unilateralmente, o que modelos podem ou não fazer) e o resultado é um cenário de pesadelo: um país sem autonomia tecnológica, sem freios institucionais efetivos e com governantes que já demonstraram, repetidamente, disposição para usar qualquer instrumento disponível contra liberdades civis.

A “para-estatização” do desenvolvimento de IA, essa nacionalização branda em que governos não assumem a propriedade formal dos modelos, mas determinam seus limites, seus usos e suas proibições, é especialmente perigosa para países como o Brasil.

Quando Washington decide que o Claude não pode ter certas restrições porque o Pentágono precisa de vigilância irrestrita, o efeito colateral é que o mesmo modelo, com menos salvaguardas, pelo menos no que respeita à retirada das restrições sobre vigilância massiva, poderá ser acessado por governos ao redor do mundo.

E quando Pequim infiltra plataformas para roubar segredos de treinamento, o efeito é que modelos futuros serão desenvolvidos em ambientes cada vez mais fechados e menos transparentes. Nos dois casos, o Brasil perde: no primeiro, porque agentes estatais liberticidas têm acesso a ferramentas ultraeficientes na vigilância massiva da população; no segundo, porque é excluído da fronteira tecnológica.

O walling (o “cercamento”) do desenvolvimento de IA avançada é, para nações tecnologicamente dependentes como o Brasil, o equivalente digital de um embargo. Não é preciso proibir um país de usar IA: basta restringir o acesso ao treinamento de ponta, limitar a transferência de chips e condicionar o uso de modelos a alinhamentos geopolíticos.

O Brasil, que não fabrica seus próprios semicondutores, não opera data centers de escala relevante para treinamento de modelos de fronteira e que não tem sequer uma política pública coerente para IA, está particularmente vulnerável a esse cenário. A soberania digital brasileira, que já era frágil, pode se tornar fictícia.

O que aconteceu na última semana de fevereiro de 2026 é um precedente civilizacional. Pela primeira vez, o governo dos Estados Unidos designou uma empresa americana como risco à segurança nacional por recusar-se a construir ferramentas de vigilância massiva e a automatizar o poder de matar sem supervisão humana. Se esse precedente se consolidar, outros governos, democráticos ou que assim se denominam, invocarão o mesmo argumento.

A erosão das liberdades civis não começa com tanques nas ruas; começa com a normalização da ideia de que o Estado tem prerrogativas irrestritas de observar e controlar o comportamento de seus cidadãos. Hoje a Anthropic; amanhã, qualquer organização que ouse dizer “não” ao poder.

Prometeu roubou o fogo dos deuses e foi acorrentado a uma rocha. A lição que ninguém conta é que os deuses não estavam errados em ter medo. O fogo queima, e a inteligência artificial também. A questão não é se haverá algum incêndio, mas se os bombeiros serão cidadãos livres ou guardas de um regime que decidiu que a segurança estatal absoluta importa mais que liberdade.

A Anthropic, com todas as suas imperfeições, escolheu ser bombeiro. O governo dos Estados Unidos escolheu acorrentá-la à rocha. E nós, cidadãos do mundo livre, devemos decidir se aceitaremos viver em sociedades onde a obediência ao Estado é o preço da existência, caso em que demonstraremos, nas palavras de Benjamin Franklin, um dos pais fundadores da república norte-americana, que “aqueles que abrem mão da liberdade essencial por um pouco de segurança temporária não merecem nem liberdade, nem segurança”.

Marcos Degaut é doutor em Segurança Internacional, pesquisador sênior na University of Central Florida (EUA), ex-secretário especial adjunto de Assuntos Estratégicos da Presidência da República, ex-secretário de Produtos de Defesa do Ministério da Defesa e ex-secretário executivo da Câmara de Comércio Exterior do Brasil (Camex).

Lindolpho Cademartori é diplomata de carreira e mestre em Diplomacia pelo Instituto Rio Branco, do Ministério das Relações Exteriores. Suas opiniões são estritamente pessoais e não necessariamente refletem aquelas do ministério.

VEJA TAMBÉM:

noticia por : Gazeta do Povo

sábado, 7, março , 2026 09:22
Mais previsões: Tempo 25 dias