fbpx

A Guerra dos Algoritmos: Alvo Certeiro ou “Alucinação” Fatal?

A inteligência artificial já influencia decisões militares no campo de batalha. Entre análises estratégicas, “alucinações” algorítmicas e manipulação de dados, surge um dilema ético: até que ponto podemos confiar à IA a identificação de alvos em guerras?

A Guerra dos Algoritmos: Alvo Certeiro ou "Alucinação" Fatal?

A Guerra dos Algoritmos: Alvo Certeiro ou “Alucinação” Fatal?

Escrevo esta postagem no dia 7 de março de 2026, no final da tarde. É o momento em que o mundo observa um novo capítulo de conflito armado. Neste caso, o conflito envolve EUA, Israel e Irã, mas também atinge outros países no Oriente Médio.

Aqui, meu objetivo não é opinar ou defender narrativas sobre as razões que tenham levado ao conflito. Busco apenas trazer uma reflexão sobre até que ponto a Inteligência Artificial (IA) deixa de ser acessória para os envolvidos e passa a se tornar um cérebro perigoso nas operações estratégicas.

Diferentemente de guerras passadas, a IA agora atua diretamente no planejamento, na identificação dos alvos e no processamento de volumes massivos de dados coletados em campo. Estudos e planos de ataque e defesa que, no passado, exigiam equipes muito bem preparadas e duravam horas ou dias agora podem ser realizados em questão de minutos.

Porém, essa evolução traz uma pergunta inquietante para o desenvolvimento humano: até que ponto podemos confiar o “botão de disparo” a algoritmos passíveis de falhas catastróficas?

Antes de mergulharmos nesta análise, é fundamental esclarecer que as afirmações e os fatos aqui narrados estão baseados em informações publicadas por veículos de imprensa de prestígio e reconhecimento, no Brasil e no exterior.

No entanto, em um cenário de conflito bélico no qual a “guerra de narrativas” se mostra uma possibilidade estratégica, é importante considerar um ponto. Certas referências do texto podem apresentar distorções ou interpretações equivocadas. Isso pode ocorrer conforme os interesses de cada um dos envolvidos, de suas narrativas e de suas posições ideológicas.


Claude e o Dilema de Washington

Os Estados Unidos têm utilizado o assistente Claude, da Anthropic, para realizar avaliações de inteligência e simular cenários de batalha na atual ofensiva contra o Irã. A ferramenta é considerada crucial para mapear riscos e prever reações do inimigo.

Entretanto, essa parceria gerou um embate ético sem precedentes. A Anthropic recusou-se a liberar sua tecnologia para uso em armas plenamente autônomas e vigilância em massa. A empresa alegou que a IA ainda não foi testada o suficiente para garantir que não atacaria civis ou cometeria equívocos fatais.

A reação do governo americano foi dura. O governo americano classificou a empresa como “risco à sua cadeia de suprimentos”, e agências federais e empresas militares receberam ordem para cortar laços com a companhia.

Apesar disso, o Claude continua sendo operado (clandestinamente ou por necessidade técnica) na ofensiva atual, segundo os jornais mais renomados. Especialistas afirmam que seriam necessários vários meses para remover totalmente essas ferramentas do aparato militar americano.


Estratégia contra Tecnologia

Enquanto os EUA apostam no processamento de dados em modelos de IA, o Irã demonstrou que o conhecimento humano, estratégico e metódico, ainda pode combater a tecnologia mais avançada.

Em uma operação sequencial, o Irã destruiu três radares americanos instalados na Jordânia, na Arábia Saudita e nos Emirados Árabes. Esses radares são os “olhos” do sistema de defesa de mísseis utilizado pelos EUA. Trata-se de um equipamento capaz de rastrear ameaças com altíssima precisão.

Essa ação não foi fruto de improviso, mas resultado de um estudo de quase duas décadas sobre a arquitetura defensiva americana. Ao remover essa capacidade operacional, o Irã criou “zonas cegas” no horizonte de ameaças. Com isso, a rede de sensores dos EUA foi reduzida a um quadro crítico.

Sem os dados desses radares, os sistemas de interceptação americanos perdem eficácia. Com isso, aumentam drasticamente as chances de mísseis inimigos atingirem seus alvos estratégicos. Ou seja, o uso de IA pelos EUA acaba tendo efeito muito limitado nessa situação.


O Risco Real: “Alucinações” e Sequestros de Lógica

O perigo real que o mundo corre quando uma potência resolve usar modelos de IA como Claude ou OpenClaw em conflitos armados reside na sua instabilidade inerente.

Estudos recentes — como mostra matéria publicada na MIT Technology Review (leia aqui) — apresentam casos em que modelos de linguagem sofrem de “alucinações”. São situações em que geram informações falsas com aparência de verdade.

Um exemplo real ocorreu recentemente quando um agente de IA alucinou e apagou todos os e-mails de uma diretora de segurança da Meta. Outro caso relatado envolveu o apagamento completo de um disco rígido por uma IA de codificação.

Quando esse risco chega ao campo de batalha, um erro desses pode significar o ataque a áreas civis. O resultado pode ser tragédias e milhares de mortes de inocentes.

Além disso, existe o risco da “injeção de prompt”. Trata-se de um tipo de sequestro em que forças de um lado do conflito podem inserir textos ou imagens maliciosas em sistemas e bases de dados que a IA consultará. Assim, o algoritmo pode ser enganado e executar ordens no interesse contrário ao do outro lado combatente.

Como a IA não diferencia instruções dadas por usuários de dados externos, ela se torna vulnerável a ordens manipuladas. Isso também pode causar danos irreparáveis em áreas que deveriam ser, de fato, protegidas.


A Necessidade de uma “Bússola Humana”

A conclusão inevitável é que o desenvolvimento humano está em risco quando delegamos decisões de vida ou morte a sistemas que especialistas comparam, atualmente, a “entregar a própria carteira a um estranho na rua”.

Há quem defenda que a regulamentação da IA deva funcionar como leis de trânsito. Sem um regulamento que defina limites claros, o uso dessas ferramentas em conflitos bélicos pode resultar em caos, mortes e perda de qualquer controle ético.

Embora alguns profissionais acreditem que seja possível usar modelos de IA com segurança, outros garantem que a tecnologia ainda não chegou lá.

Existe a possibilidade de o modelo “errar de propósito” devido a uma injeção de prompt. Também pode simplesmente falhar por alucinação lógica. Em qualquer desses cenários, civis acabam colocados na linha de frente de um erro de código.

O conflito no Irã nos mostra que a eficiência da IA no ataque e na defesa é inegável. Porém, sem supervisão humana robusta e políticas que priorizem a vida acima da utilidade bélica, estaremos apenas automatizando a nossa própria vulnerabilidade.

Por fim, é imperativo reconhecer que o uso indiscriminado da IA em conflitos bélicos escala o perigo para a população civil a níveis alarmantes.

Quando sistemas e algoritmos são encarregados de identificar alvos estratégicos, o risco de a máquina orientar um ataque ao “alvo errado” deixa de ser mera falha técnica. Nesse cenário, o erro passa a se tornar uma tragédia humanitária imperdoável.

No fim das contas, vale reforçar que, na busca pelo desenvolvimento humano em todas as suas melhores práticas, mesmo em momentos de conflito bélico a eficiência tecnológica jamais deve se sobrepor à responsabilidade moral de preservar a vida.

Eu sou Mario Divo e posso ser encontrado pelas mídias sociais ou pelo site www.mariodivo.com.br.


Gostou do artigo?

Quer saber até que ponto a inteligência artificial no uso militar pode apoiar decisões estratégicas em guerras, sem que o ser humano abdique da responsabilidade moral pelo resultado? Então, entre em contato comigo. Terei o maior prazer em responder.

Até nossa próxima postagem!

Mario Divo
https://www.mariodivo.com.br

Confira também: Produtividade ou Precarização: Será esse o Novo Contrato Social com IA?

Palavras-chave: inteligência artificial militar, inteligência artificial em guerras, algoritmos militares, guerra dos algoritmos, modelos de IA, modelos de IA em guerras, IA em conflitos armados, riscos da inteligência artificial, alucinações de IA, uso de inteligência artificial em decisões militares, riscos da IA em conflitos bélicos, alucinações de inteligência artificial em sistemas críticos, algoritmos identificando alvos em guerras, ética no uso de inteligência artificial militar
Mario Divo Author
Mario Divo possui mais de meio século de atividade profissional ininterrupta. Tem grande experiência em ambientes acadêmicos, empresariais e até mesmo na área pública, seja no Brasil ou no exterior, estando agora dedicado à gestão avançada de negócios e de pessoas. Tem Doutorado pela Fundação Getulio Vargas (FGV) com foco em Gestão de Marcas Globais e tem Mestrado, também pela FGV, com foco nas Dimensões do Sucesso em Coaching (contexto brasileiro). Formação como Master Coach, Mentor e Adviser pelo Instituto Holos. Formação em Coach Executivo e de Negócios pela SBCoaching. Consultor credenciado no diagnóstico meet® (Modular Entreprise Evaluation Tool). Credenciado pela Spectrum Assessments para avaliações de perfil em inteligência emocional e axiologia de competências. Sócio-Diretor e CEO da MDM Assessoria em Negócios, desde 2001. Mentor e colaborador da plataforma Cloud Coaching, desde seu início. Ex-Presidente da Associação Brasileira de Marketing & Negócios, ex-Diretor da Associação Brasileira de Anunciantes e ex-Conselheiro da Câmara Brasileira do Livro. Primeiro brasileiro a ingressar no Global Hall of Fame da Aiesec International, entidade presente em 2400 instituições de ensino superior, voltada ao desenvolvimento de jovens lideranças em todo o mundo.
follow me
Neste artigo


Participe da Conversa