A Guerra Invisível: Quando a Inteligência Artificial Assume o Campo de Batalha

A ficção científica nos prometeu guerras travadas por máquinas. Não precisamos mais esperar. Na primeira semana de março de 2026, o mundo assistiu, em tempo real, à materialização daquilo que parecia distante: a Inteligência Artificial como peça central de uma campanha militar em larga escala. A Operação Epic Fury — ofensiva conjunta dos Estados Unidos e Israel contra o Irã — não é apenas mais um capítulo da instabilidade no Oriente Médio. É um marco civilizacional. O momento em que algoritmos passaram a ditar o ritmo da guerra.

O cérebro por trás dos ataques

No coração da operação está o Maven Smart System, desenvolvido pela Palantir, uma das empresas de análise de dados mais controversas e poderosas do planeta. Integrado a ele, o modelo de linguagem Claude, da Anthropic, processa volumes colossais de dados classificados — imagens de satélite, interceptações de comunicações, relatórios de inteligência de dezenas de fontes — e os transforma em recomendações acionáveis em frações de segundo. O resultado é assombroso: mais de 1.000 alvos foram identificados, priorizados, geolocalizados e atacados nas primeiras 24 horas da campanha.

Para dimensionar o que isso significa, basta lembrar que na invasão do Iraque, em 2003, a fase de "Choque e Pavor" levou dias de planejamento intensivo para atingir cerca de 1.500 alvos. Agora, o ciclo que vai da detecção do alvo até a avaliação pós-ataque se comprime em minutos. Generais e analistas que antes dedicavam semanas a planos de batalha hoje recebem pacotes prontos de coordenadas, tipo de munição recomendada e estimativa de danos colaterais — tudo calculado por uma máquina.

A contradição que define 2026

O aspecto mais revelador desta crise não é tecnológico. É político. Na semana anterior aos ataques, o governo Trump ordenou que todas as agências federais cessassem imediatamente o uso de tecnologias da Anthropic. O motivo: uma disputa áspera sobre os termos de uso do Claude. A empresa exigia garantias formais de que seu modelo não seria usado para vigilância em massa de cidadãos americanos nem para armas totalmente autônomas — linhas vermelhas que o Pentágono considerou inaceitáveis, argumentando que restrições legais já existentes tornavam as exigências redundantes.

Horas depois do banimento entrar em vigor, os primeiros mísseis cruzaram o espaço aéreo iraniano — guiados, em parte, pelo mesmo Claude que acabara de ser proibido. Segundo fontes ouvidas pelo Washington Post e pela CBS News, o sistema estava tão profundamente integrado às redes classificadas do Comando Central que removê-lo às pressas comprometeria a capacidade operacional. A transição exigirá até seis meses.

Essa contradição expõe uma realidade nova e desconfortável: modelos de IA de fronteira já não são softwares que se instalam e desinstalam conforme conveniência política. São infraestrutura estratégica. Desligá-los em meio a uma operação é como tentar trocar o motor de um avião durante o voo.

Eficiência letal — e seus dilemas

Os números iniciais impressionam os analistas militares. A precisão dos ataques, segundo fontes do Pentágono, permitiu atingir sistemas de mísseis balísticos iranianos, instalações navais e centros de comando com perdas mínimas de equipamento aliado. O General Dan Caine, presidente do Estado-Maior Conjunto, confirmou que mais de 2.000 alvos haviam sido atingidos nos primeiros dias, incluindo a destruição da Marinha iraniana e a neutralização de capacidades de reconstituição militar.

Para os defensores da tecnologia, o argumento é direto: a IA salva vidas do lado aliado, reduz erros humanos de cálculo e permite campanhas mais cirúrgicas. A capacidade de processar dados em escala sobre-humana significa, em tese, menos bombardeios "às cegas" e mais ataques de precisão.

No entanto, a tragédia não tardou a temperar o otimismo. Relatos indicam que pelo menos 555 iranianos morreram nos primeiros dias, incluindo 165 em uma explosão em uma escola primária no sul do Irã. A origem exata desse ataque — se americano, israelense, ou resultado de munição desviada — permanece sob investigação. Mas o episódio levanta a pergunta inevitável: quando o algoritmo sugere um alvo e o oficial apenas clica "OK", quem é moralmente responsável pelo erro?

Generais de enfeite ou supervisão real?

Esta é a questão que pesquisadores em ética militar e direito internacional humanitário estão debatendo em tempo real. O conceito de human-in-the-loop — a exigência de que um ser humano participe de toda decisão letal — permanece formalmente em vigor. Mas na prática, quando o sistema entrega coordenadas, tipo de munição e janela de oportunidade em segundos, o oficial que autoriza o disparo está exercendo julgamento genuíno ou apenas validando uma decisão já tomada pela máquina?

O Pentágono insiste que Claude não opera autonomamente — ele "recomenda", não "decide". Porém, a velocidade do ciclo decisório é tamanha que a distinção entre recomendação e decisão torna-se, na melhor das hipóteses, tênue.

O que está em jogo

O Ocidente tem razões estratégicas legítimas para investir em IA militar. O Irã desenvolve capacidade nuclear há décadas, financia grupos armados em toda a região e representa uma ameaça concreta a aliados democráticos como Israel. A superioridade tecnológica sempre foi um pilar da dissuasão ocidental, e a IA é a fronteira natural dessa vantagem.

Mas superioridade tecnológica sem governança robusta é uma receita para desastres. O caso Anthropic-Pentágono mostra que nem o governo mais poderoso do mundo consegue controlar plenamente as ferramentas que adota. Se o Ocidente deseja manter a liderança moral que justifica suas ações — e que o diferencia de regimes autoritários — precisará resolver rapidamente três questões: transparência sobre como a IA é usada em conflitos, mecanismos reais de responsabilização quando civis morrem, e regras claras sobre o que nenhum algoritmo deve ter permissão para decidir sozinho.

A guerra das máquinas começou. A pergunta que resta não é se a IA continuará no campo de batalha — isso já é irreversível. A pergunta é se a humanidade será capaz de manter as mãos no volante enquanto a velocidade só aumenta.

 

6 de março de 2026

  • Prof. Me. Alexandre Pacheco de Souza - Bacharel em Ciências Militares pela Academia Militar das Agulhas Negras, especialista em Operações Militares pela Escola de Aperfeiçoamento de Oficiais e possui o Curso de Altos Estudos Militares da Escola de Comando e Estado-Maior do Exército. Bacharel em Direito pela Universidade Federal do Mato Grosso do Sul, Mestre em Direito Internacional Humanitário, Direitos Humanos e Direito Operacional pela Universidade de Nebrija/Espanha. É Analista de Operações Psicológicas (Canadá), possui o Curso de Staff de Operações Psicológicas (Canadá), especialista em Operações de Informação (Canadá) E especialista em Coordenação Civil-MIlitar/CIMIC (Canadá). Possui MBA em Segurança, Defesa, Geopolítica e Relações Internacionais pelo Instituto Venturo/ADESG. Integrou a Missão de Administração Transitória das Nações Unidas no Timor Leste/UNTAET e foi Oficial de Operações da Força Interina das Nações Unidas no Líbano/UNIFILTrabalhou como Oficial de Ligação junto ao Centro de Treinamento e Doutrina do Exército Canadense. Lattes: https://lattes.cnpq.br/1719914108268416 

Acesso

Visitantes Online

Temos 113 convidados e nenhum membro online

Visitas

  • Ver Acessos do Artigo 4653

Direito e Proteção

O DIH em Foco compromete-se com a proteção das informações pessoais e institucionais fornecidas pelos usuários, em conformidade com a legislação aplicável. Os dados coletados são utilizados exclusivamente para comunicação e finalidades relacionadas às atividades do site.