Inteligência Artificial em caças? Fim dos pilotos? Força Aérea dos EUA cria programa revolucionário

Pentágono começa a aceitar o potencial de uma tecnologia que emerge rapidamente, com implicações amplas para as táticas de combate, a cultura militar e a indústria da defesa

PUBLICIDADE

Por Eric Lipton*

THE NEW YORK TIMES - Ele é propulsionado ao voo por um motor de foguete. É capaz de voar uma distância igual à largura da China. Tem um design furtivo e é capaz de carregar mísseis que conseguem atingir alvos muito além de seu alcance visual.

PUBLICIDADE

Mas o que realmente distingue veículo aéreo não tripulado experimental XQ-58A Valkyrie, da Força Aérea dos Estados Unidos, é o drone ser controlado por inteligência artificial — o que coloca a aeronave na vanguarda dos esforços militares americanos de aproveitar as capacidades de uma tecnologia que emerge, cujos vastos benefícios potenciais são mitigados por profundas preocupações a respeito de quanta autonomia conferir a uma arma letal.

Essencialmente um drone da próxima geração, o Valkyrie é um protótipo do que a Força Aérea espera poder se tornar um potente reforço à sua frota de caças de combate tradicionais, dando aos pilotos humanos um enxame de aeronaves de apoio robóticas para acionamento em batalha. Sua missão é aliar inteligência artificial aos sensores da aeronave para identificar e avaliar ameaças inimigas e, após receber autorização do comando humano, avançar para a concluir a missão letal.

O veículo aéreo de combate não tripulado experimental Kratos XQ-58 na Base Aérea de Eglin, perto de Fort Walton Beach, Flórida, em 13 de julho de 2023 Foto: Edmund D. Fountain/The New York Times

Num dia recente, na Base da Força Aérea de Eglin, na costa da Flórida no Golfo do México, o major Ross Elder, de 34 anos, piloto de testes da Virgínia Ocidental, preparava-se para um exercício no qual voaria em seu caça F-15 ao lado do Valkyrie.

“É uma sensação muito estranha”, afirmou o major Elder, enquanto outros membros de sua equipe na Força Aérea preparavam-se para testar o motor do Valkyrie, “voar na companhia de algo que está tomando suas próprias decisões — e não é um cérebro humano”.

O programa Valkyrie fornece um vislumbre do modo que a indústria de armas dos EUA, a cultura militar americana, as táticas de combate e a concorrência com nações rivais estão sendo reformuladas de maneiras possivelmente vastas por rápidos avanços na tecnologia.

O surgimento da inteligência artificial está ajudando a semear uma nova geração de fornecedores de equipamentos ao Pentágono que buscam diminuir, ou ao menos perturbar, a antiga primazia de umas poucas gigantes do setor que produzem aviões, mísseis, tanques e navios para as Forças Armadas.

Publicidade

A possibilidade de construir frotas de armas inteligentes mas relativamente baratas e capazes de ser acionadas em grandes números está permitindo às autoridades do Pentágono elaborar novas estratégias para enfrentar forças inimigas.

E também as força a confrontar questões a respeito do papel que os humanos deveriam desempenhar em conflitos travados com softwares desenvolvidos para matar, uma questão especialmente tensa para os EUA, dado seu histórico de ataques ilegais de drones convencionais que mataram civis. E alcançar e manter uma vantagem em inteligência artificial é um elemento de uma corrida cada vez mais evidente com a China por superioridade tecnológica em segurança nacional.

Estrategistas militares estão preocupados com a possibilidade da atual combinação de aeronaves e sistemas de armamentos da Força Aérea — apesar dos trilhões de dólares investidos — não seja mais capaz de predominar em um eventual conflito em escala total com a China, especialmente se a guerra envolver uma invasão chinesa a Taiwan.

Isso ocorre porque a China está instalando em suas costas e nas ilhas artificiais que construiu no Mar do Sul da China mais de mil mísseis antinavio e antiaéreos que prejudicam severamente a capacidade dos EUA responderem a qualquer possível invasão a Taiwan sem sofrer perdas massivas no ar e no mar.

PUBLICIDADE

Após décadas construindo cada vez menos aeronaves de combate cada vez mais caras — os caças de combate F-35 custam US$ 80 milhões a unidade — a Força Aérea dos EUA possui atualmente a menor e mais velha frota de sua história.

É aí que entra a nova geração de drones pilotados por inteligência artificial, conhecidos como aeronaves de combate colaborativo. A Força Aérea americana planeja fabricar de 1 mil a 2 mil drones inteligentes a US$ 3 milhões a unidade, uma fração do preço de um caça avançado, o que motiva a Força Aérea a chamar o programa de “massa acessível”.

Haverá vários tipos de aeronaves robóticas com diferentes especificações. Algumas terão foco em missões de vigilância ou reabastecimento, outras voarão em enxames de ataques e outras servirão de “leais companheiras de voo” de pilotos humanos.

Publicidade

A aeronave experimental sem piloto XQ-58A Valkyrie da Força Aérea na Base Aérea de Eglin Foto: Edmund D. Fountain/The New York Times

Os drones inteligentes poderiam, por exemplo, voar na dianteira de caças de combate pilotados por humanos, fazendo vigilância prévia de alto risco. Também poderiam desempenhar um papel crítico em neutralizar defesas antiaéreas de inimigos, arriscando-se para destruir sistemas terrestres de mísseis em missões que seriam consideradas arriscadas demais para envolver pilotos humanos.

A inteligência artificial —uma versão mais especializada do tipo de programação que conhecemos dos chatbots — capturaria e avaliaria informações de seus sensores conforme o drone se aproximasse das forças inimigas para identificar outras ameaças e alvos valiosos, solicitando ao piloto humano autorização antes de lançar qualquer ataque com suas bombas e mísseis.

Os drones mais baratos serão considerados descartáveis, o que significa que eles provavelmente serão usados em apenas uma missão. As aeronaves robóticas mais sofisticadas poderão custar até US$ 25 milhões, de acordo com uma estimativa da Câmara dos Deputados, muito menos do que um caça de combate pilotado por humanos.

“É uma resposta perfeita? A resposta nunca é perfeita quando pensamos no futuro”, afirmou o major-general R. Scott Jobe, que até este verão (Hemisfério Norte) estava encarregado de definir os requerimentos para o programa de combate aéreo conforme a Força Aérea trabalha para incorporar inteligência artificial aos seus caças de combate e drones.

“Mas nós podemos apresentar dilemas aos nossos potenciais inimigos — e um desses dilemas é a massa”, afirmou o general Jobe em entrevista, no Pentágono, referindo-se ao acionamento de grandes quantidades de drones contra forças inimigas. “Nós podemos trazer massa ao espaço de batalha com um contingente potencialmente menor.”

Este esforço representa o início de uma mudança diametral na maneira que a Força Aérea compra algumas de suas ferramentas mais importantes. Após décadas nas quais o Pentágono colocou foco em comprar hardware de fornecedores tradicionais, como Lockheed Martin e Boeing, a ênfase está mudando para softwares capazes de melhorar as capacidades de sistemas de armamentos, criando uma abertura para empresas de tecnologia mais novas conseguirem ficar com parte do vasto orçamento de aquisições do Pentágono.

Marcações na asa do veículo aéreo de combate não tripulado experimental Kratos XQ-58 Foto: Edmund D. Fountain/The New York Times

“As máquinas estão realmente usando os dados para criar seus próprios desfechos”, afirmou o brigadeiro-general Dale White, oficial do Pentágono responsável pelo novo programa de aquisições do Pentágono.

Publicidade

A Força Aérea entende que também deve considerar preocupações profundas a respeito do uso militar da inteligência artificial, se deve ou não temer que a tecnologia possa se voltar contra seus criadores humanos (como a Skynet na série de filmes “O Exterminador do Futuro”) ou apreensões mais imediatas a respeito de permitir que algoritmos guiem o uso de força letal.

“Nós estamos cruzando um limite moral ao terceirizar a matança para as máquinas — permitindo que sensores computacionais, em vez de humanos, tirem vidas humanas”, afirmou Mary Wareham, diretora da Divisão de Armas da ONG Human Rights Watch, que pressiona por limites internacionais para as chamadas armas autônomas letais.

Uma política recentemente revisada pelo Pentágono a respeito do uso de inteligência artificial em sistemas de armas permite o uso autônomo de força letal — mas qualquer plano particular de construir ou acionar um armamento do tipo tem primeiro de ser avaliado e aprovado por um painel militar especial.

Questionada a respeito da possibilidade de drones serem eventualmente usados para realizar ataques letais sem ordem explícita de um comandante humano a cada missão, uma porta-voz do Pentágono afirmou em um comunicado ao New York Times que a pergunta era hipotética demais para ser respondida.

Qualquer drone autônomo da Força Aérea, afirmou o comunicado, teria de ser “projetado para permitir a comandantes e operadores exercer níveis apropriados de julgamento humano diante do uso da força”.

Oficiais da Força Aérea afirmaram que compreendem plenamente que as máquinas não são inteligentes da mesma maneira que os humanos. A tecnologia de inteligência artificial também pode cometer erros — como ocorreu repetidamente nos anos recentes com carros autônomos — e as máquinas não têm nenhuma bússola moral incorporada. Os oficiais afirmaram que levam em conta esses fatores enquanto constroem o sistema.

“É uma responsabilidade assombrosa”, afirmou o coronel Tucker Hamilton, chefe de testes e operações em inteligência artificial da Força Aérea, que também ajuda a supervisionar equipes de testes de voo na Base da Força Aérea de Eglin, notando que “narrativas distópicas e a cultura pop criaram um tipo de frenesi” em torno da inteligência artificial. “Nós só precisamos chegar lá metodicamente, deliberadamente, eticamente — e passo a passo”, afirmou ele.

Publicidade

Major Ross Elder da Força Aérea dos Estados Unidos na Base Aérea de Eglin, perto de Fort Walton Beach, Flórida Foto: Edmund D. Fountain/The New York Times

O salto mortal do Pentágono

O longo corredor revestido de madeira no Pentágono em que os mais graduados comandantes da Força Aérea têm seus escritórios é decorado com retratos de líderes de até um século atrás entre imagens das aeronaves que garantiram aos EUA domínio global nos céus desde a 2.ª Guerra.

Um tema comum emerge das imagens: a icônica função do piloto.

Os humanos continuarão a desempenhar um papel central na nova visão para a Força Aérea, afirmaram altas autoridades do Pentágono, mas trabalharão cada vez mais associados a engenheiros de software e especialistas em aprendizagem de máquina, que refinarão constantemente os algoritmos que regem as operações das aeronaves robóticas que voarão ao lado dos pilotos.

Quase todos os aspectos das operações da Força Aérea terão de ser revisados para corresponder à mudança. A missão foi confiada neste verão aos generais White e Jobe, cujos colegas de Força Aérea apelidaram de Dale e Frag Show (o codinome de piloto do general Jobe é Frag).

O Pentágono — por meio de divisões próprias de pesquisa, como a Agência de Pesquisa Avançada em Defesa (Darpa) e do Laboratório de Pesquisa da Força Aérea — já passou anos construindo protótipos como o Valkyrie e o software que o pilota. Mas o experimento está agora se tornando um dito programa registrado, o que significa que, se o Congresso aprová-lo, fatias substanciais dos impostos dos contribuintes americanos serão alocadas para a compra das aeronaves: um total de US$ 5,8 bilhões ao longo dos próximos cinco anos, de acordo com o plano da Força Aérea.

Ao contrário dos caças de combate F-35, que são entregues como parte de um pacote fornecido pela Lockheed Martin e empresas associadas, a Força Aérea tenta separar as aquisições de aeronaves e software em compras distintas.

A Kratos, que fabrica o Valkyrie, já está se preparando para concorrer a contratos futuros, assim como outras grandes empresas, como a General Atomics, que constrói há anos drones de ataque usados no Iraque e no Afeganistão, e a Boeing, que tem seu próprio protótipo experimental de jato autônomo, o MQ-28 Ghost Bat.

Publicidade

Um outro grupo de empresas de software — startups de tecnologia como Shield AI e Anduril, que são financiadas por centenas de milhões de dólares de capital de investimento — cobiçam o direito de vender ao Pentágono algoritmos de inteligência artificial que lidarão com decisões em missão.

A lista de obstáculos a serem superados é longa.

O veículo aéreo de combate não tripulado experimental Kratos XQ-58 na cordilheira da Ilha de Santa Rosa na Base Aérea de Eglin Foto: Edmund D. Fountain/The New York Times

O Pentágono tem um histórico ruim na fabricação de softwares avançados e em tentativas de iniciar seu próprio programa de inteligência artificial — que ao longo dos anos esteve sob responsabilidade de escritórios de programas batizados com diferentes acrônimos que foram criados e encerrados sem produzir resultados significativos. Há uma rotatividade constante entre atribuições no Pentágono, o que complica esforços de avançar em acordo com qualquer cronograma. O general Jobe já recebeu uma nova função, e logo o general White também será transferido.

O Pentágono também precisará dissolver o controle ferrenho que as principais fornecedoras de armamentos exercem sobre o fluxo do gasto militar. Conforme sugere a estrutura do programa Valkyrie, as Forças Armadas querem se esforçar mais para aproveitar o conhecimento de uma nova geração de empresas de software para concretizar partes críticas do pacote, introduzindo mais competição, velocidade empresarial e criatividade em um sistema há muito avesso a riscos e vagaroso.

A missão mais importante, pelo menos até pouco tempo atrás, foi entregue ao general Jobe, que fez nome na Força Aérea há duas décadas, quando ajudou a elaborar uma estratégia de bombardeios para destruir bunkers enterrados profundamente no Iraque que guardavam circuitos críticos de comunicação militar.

O general Jobe foi encarregado de tomar decisões cruciais para estabelecer as diretrizes para determinar a maneira que os aviões robóticos dotados de inteligência artificial serão construídos. Durante entrevistas no Pentágono — e em outros eventos recentes — os generais Jobe e White afirmaram que um ditame claro é que os humanos continuarão a tomar as decisões finais, não os drones robóticos, conhecidos como aeronaves de combate colaborativo (ou CCAs).

“Eu não vou deixar esse robô simplesmente sair por aí atirando nas coisas”, afirmou a jornalistas o general Jobe durante uma entrevista coletiva no Pentágono, no fim do ano passado.

Publicidade

O militar acrescentou que sempre caberia a um humano a decisão a respeito do momento e da maneira de acionar uma aeronave com inteligência artificial contra um inimigo e que os desenvolvedores estão construindo um firewall em torno de certas funções de IA para limitar o que os dispositivos serão capazes de fazer por conta própria.

“Pense nisso como uma extensão das armas que você tem à disposição se estiver num F-22, num F-35 ou em qualquer outro jato”, afirmou ele.

Em 1947, Chuck Yeager, na época um jovem piloto de testes de Myra, Virgínia Ocidental, tornou-se o primeiro humano a voar mais rápido que a velocidade do som. Setenta e seis anos depois, outro piloto de testes da Virgínia Ocidental tornou-se um dos primeiros aviadores da Força Aérea dos EUA a voar ao lado de um drone de combate com inteligência artificial.

Alto, magro e com um leve sotaque dos Apalaches, o major Elder voou com seu F-15 Strike Eagle a 300 metros de um XQ-58A Valkyrie experimental — observando o drone de perto como um pai que corre ao lado de uma criança aprendendo a andar de bicicleta, conforme a aeronave voava por conta própria alcançando velocidades e altitudes determinadas.

Capitão da Força Aérea dos Estados Unidos, Abraham Eaton, na Base Aérea de Eglin, perto de Fort Walton Beach, Flórida  Foto: Edmund D. Fountain/The New York Times

Os testes funcionais básicos dos drones foram apenas a introdução ao verdadeiro espetáculo, quando o Valkyrie irá além de usar suas avançadas ferramentas de pilotagem automática e começará a testar as capacidades de combate de sua inteligência artificial. Em um teste marcado para este ano, será solicitado ao drone de combate que persiga e elimine um simulacro de alvo inimigo sobre o Golfo do México elaborando sua própria estratégia para a missão.

Durante a atual fase, o objetivo é testar a capacidade de voo do Valkyrie e o software de inteligência artificial, portanto a aeronave não é carregada com armas. A perseguição planejada será a um inimigo “construído”, mas o agente de IA a bordo acreditará que o alvo é real.

O major Elder não teve como se comunicar diretamente com o drone autônomo neste estágio inicial do desenvolvimento, então precisou observá-lo muito atentamente em sua missão. “Ele quer matar e sobreviver”, afirmou major Elder a respeito do treinamento que o drone tem recebido.

Publicidade

Uma equipe incomum, integrada por oficiais da Força Aérea e civis, foi montada em Eglin, uma das maiores bases da corporação no mundo. Entre os membros está a capitão Rachel Price, de Glendale, Arizona, que está concluindo um PhD no Instituto Massachusetts de Tecnologia sobre aprendizado computacional profundo, assim como o major Trent McMullen, de Marietta, Geórgia, que tem mestrado da Universidade de Stanford em aprendizado de máquina.

Uma das coisas que o major Elder observa atentamente é a ocorrência de qualquer discrepância entre simulações em computador antes dos voos e as ações do drone quando ele está realmente no ar — algum problema “de transposição do simulado para o real”, conforme o jargão militar — ou algo ainda mais preocupante, qualquer sinal de “surgimento de um padrão de comportamento” em que o drone robótico aja de maneira potencialmente perigosa.

Em testes de voo, o major Elder ou o chefe de equipe da torre de controle da Base da Força Aérea de Eglin podem desligar a plataforma de inteligência artificial ao mesmo tempo que mantêm o piloto automático básico do Valkyrie funcionando. Assim como o capitão Abraham Eaton, de Gorham, Maine, que atua como engenheiro de testes no projeto e é encarregado de avaliar o desempenho do drone.

“Como você avalia um agente de inteligência artificial?”, perguntou ele retoricamente. “Você o avalia de acordo com uma escala humana? Provavelmente não, correto?”

Adversários reais provavelmente tentarão enganar a inteligência artificial, por exemplo por meio da criação de uma camuflagem virtual para ocultar-se de aviões inimigos ou de alvos destinados a fazer o robô acreditar que está vendo outra coisa.

Arneses e capacetes usados por pilotos na Base Aérea de Eglin, perto de Fort Walton Beach, Flórida Foto: Edmund D. Fountain/The New York Times

A versão inicial do software de inteligência artificial é mais “determinista”, o que significa que o programa segue principalmente os códigos com os quais ela foi treinada, com base em simulações computacionais que a Força Aérea executa milhões de vezes conforme constrói o sistema. Eventualmente, o software de IA terá de ser capaz de perceber o mundo em sua volta — e aprender a entender esses truques e superá-los, uma habilidade que exigirá uma coleta massiva de dados para treinar os algoritmos. O software terá de ser fortemente protegido contra ataques hackers do inimigo.

A parte mais difícil dessa tarefa, afirmaram o major Elder e outros pilotos, é a vital construção de confiança que constitui um elemento central do vínculo entre duplas de pilotos — suas vidas dependem de sua interação e da maneira que cada um reage; preocupação que também inquieta o Pentágono.

Publicidade

“Eu preciso saber se esses CCAs farão o que eu espero que eles façam, porque, se não fizerem, eu que posso me dar mal”, afirmou o general White.

Em testes preliminares, os drones autônomos já mostraram que agirão de maneiras incomuns — o Valkyrie, em certa ocasião, fez uma série de rodopios. No início, o major Elder pensou que algo não funcionava bem, mas constatou-se que o software tinha determinado que seus sensores infravermelhos poderiam obter uma percepção mais clara se o drone girasse sobre o eixo de sua trajetória continuamente. A manobra teria sido como uma volta numa montanha-russa para um piloto humano, mas posteriormente a equipe concluiu que o drone alcançou um desfecho melhor para a missão.

Pilotos da Força Aérea são experientes em aprender a confiar em automação computacional — como os sistemas de prevenção de colisões que assumem o controle do caça de combate se a aeronave está voando na direção do solo ou em rota de colisão com outro avião; duas das principais causas de mortes de pilotos.

Marcações na cauda do veículo aéreo de combate não tripulado experimental Kratos XQ-58 na Base Aérea de Eglin, perto de Fort Walton Beach, Flórida Foto: Edmund D. Fountain/The New York Times

Inicialmente, os pilotos relutaram em voar com esse sistema acionado porque ele permite que os computadores assumam o controle da aeronave, afirmaram vários pilotos em entrevista. Conforme acumularam-se evidências de que o sistema salva vidas, ele acabou amplamente aceito. Mas aprender a confiar em drones de combate robóticos será mais difícil, reconheceram oficiais experientes da Força Aérea.

Comandantes da Força Aérea usaram a palavra “confiança” dezenas de vezes em diversas entrevistas a respeito dos desafios que eles enfrentam para construir aceitação aos sistemas de inteligência artificial entre os pilotos. Para iniciar o processo, foram iniciados testes com protótipos de drones robóticos voando próximo a aeronaves pilotadas por humanos.

A Força Aérea também iniciou um segundo programa de testes chamado Project Venom, que colocará pilotos dentro de seis caças de combate F-16 equipados com software de inteligência artificial que tomará decisões críticas no treinamento.

O objetivo, afirmaram autoridades do Pentágono, é formar uma Força Aérea mais imprevisível e letal, criando mais dissuasão sobre qualquer movimento da China e um combate menos mortífero — pelo menos para a Força Aérea dos EUA.

As autoridades estimam que poderá levar de cinco a 10 anos para desenvolver um sistema funcional para combate aéreo com base em inteligência artificial. Comandantes da Força Aérea pressionam para acelerar esse esforço — mas reconhecem que a velocidade não pode ser o único objetivo.

“Nós não chegaremos lá imediatamente, mas chegaremos”, afirmou o general Jobe. “A coisa avança e melhora a cada dia que continuamos a treinar esses algoritmos.” / TRADUÇÃO DE AUGUSTO CALIL

*Eric Lipton é repórter investigativo do The New York Times, baseado em Washington

Comentários

Os comentários são exclusivos para assinantes do Estadão.