
A ficção científica nos prometeu guerras travadas por máquinas. Não precisamos mais esperar. Na primeira semana de março de 2026, o mundo assistiu, em tempo real, à materialização daquilo que parecia distante: a Inteligência Artificial como peça central de uma campanha militar em larga escala. A Operação Epic Fury — ofensiva conjunta dos Estados Unidos e Israel contra o Irã — não é apenas mais um capítulo da instabilidade no Oriente Médio. É um marco civilizacional. O momento em que algoritmos passaram a ditar o ritmo da guerra.
O cérebro por trás dos ataques
No coração da operação está o Maven Smart System, desenvolvido pela Palantir, uma das empresas de análise de dados mais controversas e poderosas do planeta. Integrado a ele, o modelo de linguagem Claude, da Anthropic, processa volumes colossais de dados classificados — imagens de satélite, interceptações de comunicações, relatórios de inteligência de dezenas de fontes — e os transforma em recomendações acionáveis em frações de segundo. O resultado é assombroso: mais de 1.000 alvos foram identificados, priorizados, geolocalizados e atacados nas primeiras 24 horas da campanha.
Para dimensionar o que isso significa, basta lembrar que na invasão do Iraque, em 2003, a fase de "Choque e Pavor" levou dias de planejamento intensivo para atingir cerca de 1.500 alvos. Agora, o ciclo que vai da detecção do alvo até a avaliação pós-ataque se comprime em minutos. Generais e analistas que antes dedicavam semanas a planos de batalha hoje recebem pacotes prontos de coordenadas, tipo de munição recomendada e estimativa de danos colaterais — tudo calculado por uma máquina.
A contradição que define 2026
O aspecto mais revelador desta crise não é tecnológico. É político. Na semana anterior aos ataques, o governo Trump ordenou que todas as agências federais cessassem imediatamente o uso de tecnologias da Anthropic. O motivo: uma disputa áspera sobre os termos de uso do Claude. A empresa exigia garantias formais de que seu modelo não seria usado para vigilância em massa de cidadãos americanos nem para armas totalmente autônomas — linhas vermelhas que o Pentágono considerou inaceitáveis, argumentando que restrições legais já existentes tornavam as exigências redundantes.
Horas depois do banimento entrar em vigor, os primeiros mísseis cruzaram o espaço aéreo iraniano — guiados, em parte, pelo mesmo Claude que acabara de ser proibido. Segundo fontes ouvidas pelo Washington Post e pela CBS News, o sistema estava tão profundamente integrado às redes classificadas do Comando Central que removê-lo às pressas comprometeria a capacidade operacional. A transição exigirá até seis meses.
Essa contradição expõe uma realidade nova e desconfortável: modelos de IA de fronteira já não são softwares que se instalam e desinstalam conforme conveniência política. São infraestrutura estratégica. Desligá-los em meio a uma operação é como tentar trocar o motor de um avião durante o voo.
Eficiência letal — e seus dilemas
Os números iniciais impressionam os analistas militares. A precisão dos ataques, segundo fontes do Pentágono, permitiu atingir sistemas de mísseis balísticos iranianos, instalações navais e centros de comando com perdas mínimas de equipamento aliado. O General Dan Caine, presidente do Estado-Maior Conjunto, confirmou que mais de 2.000 alvos haviam sido atingidos nos primeiros dias, incluindo a destruição da Marinha iraniana e a neutralização de capacidades de reconstituição militar.
Para os defensores da tecnologia, o argumento é direto: a IA salva vidas do lado aliado, reduz erros humanos de cálculo e permite campanhas mais cirúrgicas. A capacidade de processar dados em escala sobre-humana significa, em tese, menos bombardeios "às cegas" e mais ataques de precisão.
No entanto, a tragédia não tardou a temperar o otimismo. Relatos indicam que pelo menos 555 iranianos morreram nos primeiros dias, incluindo 165 em uma explosão em uma escola primária no sul do Irã. A origem exata desse ataque — se americano, israelense, ou resultado de munição desviada — permanece sob investigação. Mas o episódio levanta a pergunta inevitável: quando o algoritmo sugere um alvo e o oficial apenas clica "OK", quem é moralmente responsável pelo erro?
Generais de enfeite ou supervisão real?
Esta é a questão que pesquisadores em ética militar e direito internacional humanitário estão debatendo em tempo real. O conceito de human-in-the-loop — a exigência de que um ser humano participe de toda decisão letal — permanece formalmente em vigor. Mas na prática, quando o sistema entrega coordenadas, tipo de munição e janela de oportunidade em segundos, o oficial que autoriza o disparo está exercendo julgamento genuíno ou apenas validando uma decisão já tomada pela máquina?
O Pentágono insiste que Claude não opera autonomamente — ele "recomenda", não "decide". Porém, a velocidade do ciclo decisório é tamanha que a distinção entre recomendação e decisão torna-se, na melhor das hipóteses, tênue.
O que está em jogo
O Ocidente tem razões estratégicas legítimas para investir em IA militar. O Irã desenvolve capacidade nuclear há décadas, financia grupos armados em toda a região e representa uma ameaça concreta a aliados democráticos como Israel. A superioridade tecnológica sempre foi um pilar da dissuasão ocidental, e a IA é a fronteira natural dessa vantagem.
Mas superioridade tecnológica sem governança robusta é uma receita para desastres. O caso Anthropic-Pentágono mostra que nem o governo mais poderoso do mundo consegue controlar plenamente as ferramentas que adota. Se o Ocidente deseja manter a liderança moral que justifica suas ações — e que o diferencia de regimes autoritários — precisará resolver rapidamente três questões: transparência sobre como a IA é usada em conflitos, mecanismos reais de responsabilização quando civis morrem, e regras claras sobre o que nenhum algoritmo deve ter permissão para decidir sozinho.
A guerra das máquinas começou. A pergunta que resta não é se a IA continuará no campo de batalha — isso já é irreversível. A pergunta é se a humanidade será capaz de manter as mãos no volante enquanto a velocidade só aumenta.
6 de março de 2026
Prof. Me. Alexandre Pacheco de Souza - Bacharel