PUBLICIDADE

A vulnerabilidade da corrida armamentista pela inteligência artificial

No campo de batalha, o questionamento é como projetar robôs e drones autônomos para entender o que é permitido ou não 

Por Carol Giacomo
Atualização:

Ainda no início da Guerra no Afeganistão, rangers do exército que caçavam combatentes do Taleban ao longo da fronteira com o Paquistão viram alguém pastoreando cabras empunhando um rádio, provavelmente informando a posição deles ao Taleban. De acordo com as regras do conflito armado, soldados podem atirar em alguém que esteja informando sua posição a forças inimigas, mas os homens viram que, nesse caso, as cabras eram pastoreadas por uma menina.

Se ela estivesse na mira do tipo de robô ou drone autônomo atualmente em desenvolvimento, e não na mira de atiradores treinados, é possível que o equipamento não fizesse a distinção entre alvo e criança, matando-a, de acordo com Paul Scharre, que comandava os rangers naquele dia.

Invasores eletrônicos, vazamentos de dados e a possibilidade de os humanos perderem o controle do algoritmo são alguns dos problemas trazidos pela inteligência artificial. Foto: Hiroko Masuike / The New York Times

PUBLICIDADE

Scharre, autor de Army of None: Autonomous Weapons and the Future of War [Exército de homem nenhum: armamento autônomo e o futuro da guerra], relatou o episódio em um discurso feito esse ano no Centro para a Segurança Internacional e Cooperação, de Stanford, deixando claro o que está em jogo conforme a revolução da inteligência artificial se dissemina cada vez mais pelo campo de batalha.

“Como projetar um robô para entender a diferença entre o que é permitido e o que é certo?” disse. “E como começamos a escrever essas regras antecipadamente? E se não houver um humano em posição de interpretá-las, para aplicar todo o conjunto dos valores humanos a essas decisões?”, questionou.

Por enquanto, são questões meramente hipotéticas. Dois funcionários do alto escalão das autoridades de defesa, que falaram com o Times nos bastidores porque boa parte do seu trabalho com inteligência artificial é confidencial, disseram que os Estados Unidos “não estão nem perto” de levar ao campo de batalha uma arma completamente autônoma.

Mas, três anos atrás, forças do Azerbaijão usaram o que parecia ser um drone suicida israelense chamado Harop para explodir um ônibus transportando soldados armênios. O drone pode voar automaticamente até um lugar, localizar o alvo, mergulhar em direção a ele e detonar, de acordo com o fabricante. Por enquanto, é projetado para funcionar com controladores humanos que podem detê-lo.

Pouco depois disso, na Califórnia, o Gabinete de Capacidades Estratégicas do Departamento de Defesa testou 103 drones desarmados modelos Perdix que, sozinhos, foram capazes de cercar um alvo. “São um organismo coletivo, compartilhando um mesmo cérebro para a tomada de decisões e adaptando-se uns aos outros como fazem os enxames na natureza”, disse William Roper, diretor do gabinete na época, em declaração do Departamento de Defesa.

Publicidade

Fabricado na Estônia, o Tracked Hybrid Modular Infantry System [sistema de infantaria modular híbrido sobre lagartas] parece uma miniatura de tanque com canhões, câmera e a capacidade de rastrear um alvo e atirar nele. É controlado por humano, mas o fabricante diz que se trata de um “veículo autônomo cada vez mais assistido pela IA". “A maioria das forças armadas competentes tem capacidade para construir hoje armas autônomas relativamente rudimentares", explicou Scharre em mensagens trocadas por e-mail após seu discurso.

Conforme aumenta a capacidade dos sistemas de agir com autonomia, aqueles que estudam os perigos das armas desse tipo, incluindo o Grupo de Especialistas Governamentais das Nações Unidas, temem que planejadores militares se sintam tentados a eliminar de vez o controle humano. Foi proposto um tratado para a proibição de armas letais autocomandadas desse tipo, mas a ideia recebeu apoio limitado. A proibição proposta concorre com a crescente aceitação dessa tecnologia, com pelo menos 30 países possuidores de sistemas automatizados de defesa aérea e antimísseis capazes de identificar a aproximação de ameaças e atacá-las por conta própria, a não ser que um supervisor humano interrompa a resposta.

O Times de Israel relatou que um veículo robótico armado israelense chamado Guardium é usado na fronteira com Gaza. A marinha dos EUA testou e aposentou uma aeronave capaz de decolar e pousar sozinhaem um porta-aviões, reabastecendo em pleno voo. Diz-se que Grã-Bretanha, França, Rússia, China e Israel também estão desenvolvendo drones autônomos experimentais de combate invisíveis ao radar para a operação no espaço aéreo fortemente defendido de um inimigo.

A velocidade com que essa tecnologia está avançando traz o medo de uma corrida armamentista dos autônomos envolvendo China e Rússia, o que torna ainda mais urgente a necessidade de os países trabalharem juntos para definir mecanismos de controle garantindo que os humanos nunca deleguem completamente às máquinas de combate as decisões de vida ou morte.

CONTiNUA APÓS PUBLICIDADE

Os funcionários do alto escalão da defesa americana dizem que os críticos estão alarmados sem razão, insistindo que o exército vai agir de maneira responsável. “Ninguém está pensando em robôs independentes no momento", afirmou um dos funcionários.

O que eles estão explorando é o uso da inteligência artificial para possibilitar que as armas ataquem com mais rapidez e precisão, fornecendo mais informações a respeito de campos de batalha caóticos e proporcionando alertas antecipados contra ataques. Em vez de aumentar o risco de baixas civis, avanços desse tipo poderiam reduzir essas mortes ao minimizar o erro humano, dizem as autoridades.

Os EUA, por exemplo, exploram a ideia de enviar enxames de embarcações menores autônomas para repelir ameaças a navios maiores da marinha. Mas as autoridades de defesa dizem que os comandantes americanos jamais aceitariam sistemas totalmente autônomos, pois isso significaria transferir às máquinas a inteligência e a experiência de oficiais altamente treinados.

Publicidade

Ainda que a inteligência artificial tenha se revelado uma ferramenta poderosa em uma série de áreas, ela tem sérias vulnerabilidades, como os invasores eletrônicos, os vazamentos de dados e a possibilidade de os humanos perderem o controle do algoritmo.

Apenas 28 países defenderam o apelo pela criação de um tratado proibindo as armas desse tipo, no qual a coalizão internacional Campanha para Impedir os Robôs Assassinos, formada por mais de 100 organizações não governamentais, começou a trabalhar em 2012. Em março, o secretário-geral das Nações Unidas, António Guterres, disse que “máquinas capazes de tomar a decisão de matar e executá-la sem o envolvimento de um humano são politicamente inaceitáveis, moralmente repulsivas e deveriam ser proibidas pelo direito internacional". Ele pediu a um grupo da ONU que desenvolva meios de tornar isso realidade, seja com um tratado, com a pressão política ou com parâmetros rigorosos. Esse trabalho será fútil a não ser que os EUA e outras grandes potências estejam à frente da iniciativa./ TRADUÇÃO DE AUGUSTO CALIL

Comentários

Os comentários são exclusivos para assinantes do Estadão.