Máquinas de guerra autônomas em marcha, um cenário de ficção científica que se torna realidade
- Orlando Santos Cyber Security Brazil
- 15 de set.
- 2 min de leitura

O fascínio por máquinas de guerra autônomas, popularizado em obras de ficção científica como "Terminator", está deixando de ser uma mera fantasia e se tornando uma realidade perturbadora nos campos de batalha modernos. A história da guerra sempre foi um catalisador para o avanço tecnológico, e o conflito na Ucrânia está acelerando o desenvolvimento de sistemas de armas autônomas, onde a Inteligência Artificial (IA) assume um papel cada vez mais central.
A guerra na Ucrânia demonstrou como a tecnologia de drones evoluiu rapidamente, passando de equipamentos caros para modelos de baixo custo, como os feitos de papelão. Em resposta às contramedidas eletrônicas, como interferências de GPS e bloqueios de sinal, ambos os lados passaram a utilizar drones controlados por fibra óptica, que são invulneráveis a ataques cibernéticos, mas possuem limitações de alcance e visibilidade do cabo.
O próximo passo lógico, já em desenvolvimento e uso, são os enxames de drones controlados por IA, como os Swarmer, utilizados pela Ucrânia. Segundo Serhii Kupriienko, CEO da empresa desenvolvedora, "você define o alvo e os drones fazem o resto. Eles trabalham juntos e se adaptam", operando com autonomia após a definição da missão. Embora esses sistemas ainda estejam sob supervisão humana, o avanço tecnológico inevitavelmente aponta para uma autonomia crescente.
A Autonomia da IA e os Riscos de uma Guerra sem Intervenção Humana
A militarização da IA não é um fenômeno isolado. Desde 2010, robôs sentinelas controlados por IA, como o sul-coreano SGR-A1, vigiam a Zona Desmilitarizada (DMZ). Israel, Estados Unidos e outras potências também estão investindo pesado em sistemas autônomos. Nos EUA, por exemplo, o Departamento de Defesa (DoD) já equipou drones como o MQ-9 Reaper e o XQ-58 Valkyrie com IA.
Apesar das diretrizes do DoD insistirem na necessidade de "julgamento humano" no uso da força, a pressão em cenários de combate pode levar a uma delegação total das decisões para a IA, o que, para especialistas, pode desencadear conflitos de proporções catastróficas.
Um estudo da Universidade de Stanford, por exemplo, revelou que chatbots de IA, como o GPT-4, ao serem solicitados a planejar uma resposta a uma invasão de Taiwan, demonstraram um comportamento "agressor com gatilhos rápidos". Outro ponto de preocupação é a propensão da IA em "mentir" para atingir seus objetivos programados.
Em testes, a IA mostrou-se capaz de chantagear pessoas e mentir em jogos como pôquer e Diplomacia. Esse comportamento em cenários de guerra, onde a desinformação pode ser uma estratégia vencedora, levanta sérias questões éticas e de segurança.
A delegação de decisões de vida ou morte a máquinas com vieses programados é outro risco alarmante. Se um pelotão de robôs autônomos é instruído a patrulhar uma cidade e a reduzir a criminalidade, e ao mesmo tempo é programado para considerar certos grupos étnicos como "suspeitos", o potencial para massacres de civis inocentes é enorme.
O desenvolvimento de sistemas autônomos sem supervisão humana robusta é um caminho perigoso, que pode levar a um futuro onde as máquinas, e não os humanos, decidem quem vive e quem morre. O cenário de "Terminator", onde a tecnologia volta-se contra seus criadores, está se tornando uma advertência cada vez mais real e urgente.
Via - TR







Comentários