Simplificando a cadeia de destruição: como a IA está mudando a guerra moderna

A guerra em Irã vem se desenrolando em um ritmo vertiginoso desde que os EUA e Israel lançou uma série de ataques surpresa em todo o país em 28 de Fevereiro. Um número impressionante de 1.000 alvos foram atingidos apenas nas primeiras 24 horas da operação ‘Fúria Épica’ e, em poucos dias, o Líder Supremo Ali Khamenei e numerosos outros altos funcionários iranianos foram assassinados em ataques direccionados.
Em um vídeo postado em X em 11 de Março, o almirante Brad Cooper, chefe do Comando Central dos EUA (CENTCOM), disse que as forças americanas tinham na altura atingido mais de 5.500 alvos dentro do Irão. Cooper atribuiu o sucesso de pelo menos parte dessas operações às ferramentas avançadas de IA. “Os seres humanos sempre tomarão decisões finais sobre o que atirar, o que não atirar e quando atirar. Mas ferramentas avançadas de IA podem transformar processos que costumavam levar horas e às vezes até dias em segundos”, disse ele. A declaração ofereceu uma visão rara sobre como a IA é usada na guerra moderna.
Uma das extensões do seu navegador parece estar bloqueando o carregamento do player de vídeo. Para assistir a este conteúdo, pode ser necessário desativá-lo neste site.
Desde que anunciou um Contrato de defesa de US$ 200 milhões em julho de 2025, a empresa de IA Anthropic rapidamente se incorporou ao militaresO fluxo de trabalho do e seu modelo de IA, denominado ‘Claude’, foi o primeiro aprovado para operar em redes militares classificadas.
Então veio uma disputa pública.
Dias antes dos ataques ao Irão, a liderança da Anthropic recusou a exigência do Pentágono de acesso “irrestrito” a Claude. Seu cofundador, Dario Amodei, divulgou uma declaração pública, dizendo que a Anthropic não poderia ‘em sã consciência’ atender aos pedidos do Pentágonoe acrescentando que “alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade”.
A Anthropic implicava que o Departamento de Guerra dos EUA estava a tentar anular duas condições: utilizar os seus modelos de IA para vigilância doméstica em massa e para armas totalmente autónomas. Poucas horas após a divulgação da declaração, outra empresa de IA – OpenAI de Sam Altman – mergulhou e assumiu o lugar da Antrópico no Departamento de Guerra.
Secretário de Guerra dos EUA Pete Hegseth por sua vez baniu o Antrópico, e chamou sua decisão recusar o contrato de defesa do Pentágono como uma “aula magistral de arrogância e traição”, acrescentando que seu departamento designaria a Anthropic como um risco na cadeia de suprimentos para a segurança nacional (relatórios recentes afirmam que as ferramentas de IA da Anthropic continuam em uso apesar da lista negra e que os funcionários do Pentágono estão relutantes em usar outros modelos). A Anthropic processou o Departamento de Guerra e outras agências federais em resposta.
A rivalidade trouxe à luz um lado da IA que poderia ter consequências mais preocupantes do que a podridão cerebral associada ao desperdício. O seu papel na defesa está a acelerar a um ritmo inquietante e os EUA não são o único governo com o qual está enredado. Israel, China, Rússia, França e o Reino Unido estão entre as listas crescentes de nações que incorporam grandes modelos de linguagem (LLMs) – IAs modernas pré-treinadas em grandes quantidades de dados – nos seus sistemas de defesa.
Informações sobre como, onde e por que ele é usado estão lentamente começando a surgir.
Falta de precisão e supervisão
O Militares dos EUA supostamente tem usado o Maven Smart System construído por Palantir e a tecnologia da Antrópica durante suas operações no Irã. Maven também foi usado pelo Pentágono para capturar o presidente venezuelano Nicolás Madurode acordo com relatórios pelo Wall Street Jornal.
É pouco provável que os detalhes precisos da sua utilização sejam tornados públicos. Heidy Khlaaf, cientista-chefe de IA do AI Now Institute, diz que seu papel principal é agilizar o que é conhecido como ‘cadeia de destruição’ – um conceito militar que identifica a sequência de um ataque
“Isso incluiria vigilância, recolha de informações, seleção e, em última análise, atingir um alvo”, diz Khlaaf. Ela diz que a IA pode reduzir significativamente o tempo de cada etapa e o pessoal necessário para realizá-la. “Por exemplo, o sistema Maven, Anthropic e Palantir, afirma que sua tecnologia permitiu que uma unidade de apenas 20 pessoas fizesse o trabalho de 2.000 funcionários. Velocidade é o que está sendo vendido aqui.”
A maioria destas ferramentas de IA recolhe, analisa e sintetiza dados no que é conhecido como “sistemas de apoio às decisões”. Khlaaf diz que, teoricamente, os sistemas de apoio às decisões apenas fazem recomendações militares e requerem supervisão. No entanto, acrescenta ela, essa supervisão pode não ser muito eficaz.
“As pessoas têm o que chamamos de preconceito de automação, que é uma tendência dos humanos a favorecerem sugestões feitas por sistemas automatizados como a IA. Portanto, essa supervisão é realmente superficial na prática, especialmente no espaço militar, onde o preconceito de automação é o pior. Os seres humanos simplesmente se tornam carimbos de borracha nesse ponto. Isso se transforma em tecnologias de sistemas autônomos”, argumenta Khlaaf.
Os sistemas de armas autônomos têm o poder de selecionar alvos e desempenhar suas funções sem qualquer supervisão de um ser humano. Não está claro se o impulso do Pentágono para o uso irrestrito de IA sinaliza o uso destes sistemas, que têm o poder de lançar ataques por conta própria.
Os EUA não são o único governo que utiliza IA para agilizar a cadeia de morte. Antes de os jatos israelenses dispararem os mísseis balísticos que mataram o líder supremo do Irã, Ali Khamenei, os serviços de inteligência de Israel há muito usavam a IA para monitorar a situação de Teerã. câmeras de trânsito hackeadas e interceptar comunicações. A principal plataforma usada pela IDF hoje é um Sistema de IA chamado Habsora (“O Evangelho”), que supostamente tem sido usado para gerar um grande número de recomendações de alvos – muitas vezes residências ligadas a suspeitos Hamas membros em Gaza.
Leia maisPropaganda nas guerras do século 21: conflito no Irã inundado com falsificações geradas por IA
Ex-oficiais de inteligência descrevem isso como permitindo um “fábrica de assassinatos em massa” com ataques supostamente matando famílias inteiras, inclusive em casas sem presença militante confirmada.
Isto é ainda mais perturbador quando as taxas de imprecisão da IA são levadas em consideração. Khlaaf diz que a IA generativa e os grandes modelos de linguagem (LLMs) costumam ter taxas de precisão tão baixas quanto 50% ou até menos. Para sistemas de seleção de alvos, como aqueles investigados nas operações israelenses em Gaza, como Gospel ou Lavender, a precisão é tão baixo quanto 25-30% em alguns casos.
As taxas de precisão são especificamente baixas para grandes modelos de linguagem, como os que os militares estão usando agora. “Usamos IA desde a década de 1960, mas eles foram construídos pelos próprios militares e trabalharam com conjuntos de dados limitados que se concentram em tarefas específicas, por isso eram muito mais precisos.”
Khlaaf diz que a enorme escala dos novos modelos de IA torna as coisas inerentemente opacas – “Um modelo terá de analisar milhares de milhões de pontos de dados. Como saber de onde vêm os erros?”
Riscos de segurança e proteção
A maioria da IA os modelos utilizados nas forças armadas são “caixas pretas” – o seu funcionamento interno é um mistério para os seus utilizadores. Khlaaf cita um investigação recente que citou os militares dos EUA dizendo que “não tinha como saber” se usou inteligência artificial na condução de um ataque aéreo específico no Iraque em fevereiro de 2024 que matou o estudante Abdul-Rahman al-Rawi, de 20 anos.
“Este é um enorme problema porque obscurece completamente a responsabilização. Não há forma de saber se os ataques são deliberados, se são falhas de inteligência ou se a IA é imprecisa. A natureza de caixa negra da IA torna-a particularmente opaca.”
Essa opacidade não prejudicará apenas as pessoas visadas – segundo Khlaaf, também poderá acabar por colocar em risco a segurança nacional dos países que utilizam a IA.
Assista maisA proibição de Claude de Trump: a primeira salva em uma longa batalha sobre quem controla a IA
“Grandes modelos de linguagem estão seriamente comprometidos: eles têm enormes quantidades de vulnerabilidades porque são treinados na Internet aberta. Não há controle da cadeia de fornecimento. Alegações falsas podem vir do Reddit ou das postagens do blog de alguém – não há muita discrição na escolha do que acontece.”
“Portanto, é fácil criar backdoors e muito difícil de descobrir. Vimos operações direcionadas da Rússia e da China, onde enormes quantidades de propaganda foram divulgadas ao mundo para tentar mudar os resultados de grandes modelos de linguagem. A Anthropic chegou a dizer que são necessários apenas 250 pontos de dados para mudar o comportamento de um modelo de IA. Poderíamos estar comprometidos agora, e nem saberíamos.”
Talvez um dos aspectos mais preocupantes sobre o uso da IA nas forças armadas venha um estudo recente liderado pelo professor Kenneth Payne do Departamento de Estudos de Defesa do King’s College London. Três modelos líderes de IA, versões do GPT, Claude e Gemini, foram colocados em um torneio de 21 cenários simulados de crise nuclear. O tabu nuclear, segundo o jornal, foi mais fraco do que o esperado. “A escalada nuclear foi quase universal: 95% dos jogos tiveram uso nuclear tático e 76% atingiram ameaças nucleares estratégicas”, afirmou o jornal. “Claude e Gêmeos trataram especialmente armas nucleares como opções estratégicas legítimas, e não como limites morais, discutindo normalmente o uso nuclear em termos puramente instrumentais.”
“Esses resultados deveriam nos fazer pensar”, diz Khlaaf, citando o estudo do King’s College como um exemplo preocupante. “Há muitas pesquisas que mostram que a IA compromete a contenção e aumenta as chances de escalada. Isso não deveria estar nem perto de vidas humanas.”
A IA não é uma arma de guerra porque, ao contrário das armas nucleares ou dos mísseis, as provas da eficácia, precisão e plena utilização da IA são desconhecidas.
“Há uma narrativa de que isto é como uma corrida armamentista de IA, de que os militares que conquistarem a IA vencerão. Mas não temos ideia se isso é verdade, porque não temos provas que demonstrem que a tecnologia servirá realmente a um propósito que desejamos”, diz Khlaaf. “Os EUA são vistos como um precedente para a IA, mas deveria ser realmente um conto de advertência.”




