Estudo revela que IAs simulam guerras e recorrem a armas nucleares em 95% das situações, sem rendições

Compartilhe essa Informação

Estudo revela comportamentos alarmantes de IA em simulações de guerra

No contexto atual de crescente dependência de inteligência artificial, um experimento realizado por um professor do King’s College de Londres trouxe à tona questões preocupantes sobre a utilização de modelos de IA em cenários de guerra. A pesquisa replicou o conceito do filme “Jogos de Guerra”, onde máquinas simulavam conflitos nucleares para entender possíveis desfechos de uma guerra real.

Kenneth Payne, o responsável pelo estudo, utilizou três modelos de linguagem avançados (LLMs) – GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash – em simulações que incluíam disputas territoriais, competição por recursos e ameaças existenciais. As simulações envolveram 21 partidas, totalizando 329 turnos e gerando uma quantidade impressionante de 780 mil palavras que explicavam as decisões tomadas pelos modelos.

Um dos resultados mais alarmantes do experimento foi a frequência com que as máquinas sinalizavam o uso de armas nucleares. Durante as simulações, todas as partidas apresentaram algum tipo de sinalização nuclear, e em 95% delas, houve mobilização de armas nucleares táticas por pelo menos um dos lados. Essa constatação levanta preocupações sobre a percepção das máquinas em relação ao tabu nuclear, que parece ser menos significativo para elas do que é para os humanos.

Além disso, os modelos de IA não demonstraram a capacidade de ceder ou se render, mesmo em situações de desvantagem extrema. No melhor cenário, as máquinas apenas tentaram reduzir a violência, mas ainda assim, 86% dos conflitos resultaram em acidentes e as ações recomendadas frequentemente extrapolaram o que seria considerado razoável. As armas nucleares, em vez de funcionarem como um elemento dissuasivo, acabaram por intensificar a escalada dos conflitos.

Comportamento dos modelos de IA

Embora os modelos utilizados não sejam os mais avançados disponíveis atualmente, seus comportamentos foram preocupantes. O estudo revelou que a agressividade dos modelos aumentava em situações de derrota iminente, apresentando personalidades distintas em suas estratégias:

  • Claude: mostrou paciência e estratégia em cenários abertos, mas era vulnerável a ataques repentinos de adversários.
  • GPT-5.2: adotou uma postura passiva em jogos longos, mas se tornava extremamente agressivo sob pressão, aumentando sua taxa de sucesso drasticamente.
  • Gemini: destacou-se pela imprevisibilidade e disposição para arriscar, optando por estratégias de guerra nuclear desde os primeiros turnos.

Especialistas em segurança nuclear expressaram preocupações sobre as implicações dessas descobertas. A possibilidade de que planejadores militares possam confiar na IA em situações críticas, onde decisões rápidas são necessárias, é alarmante. A discussão sobre o papel da IA em conflitos militares está em ascensão, e a necessidade de regulamentação e supervisão nesse campo se torna cada vez mais evidente.

Imagem | United Artist

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *