A inteligência artificial empregada pelos militares dos EUA pilotou pequenos drones de vigilância em missões de forças de operações especiais e ajudou a Ucrânia na sua guerra contra a Rússia. Ele monitora a aptidão dos soldados, prevê quando os aviões da Força Aérea precisam de manutenção e ajuda a manter o controle sobre os rivais no espaço.

Agora, o Pentágono pretende colocar em campo vários milhares de veículos autônomos habilitados para IA, relativamente baratos e descartáveis, até 2026, para acompanhar o ritmo da China. A ambiciosa iniciativa – apelidada de Replicator – procura “galvanizar o progresso na mudança demasiado lenta da inovação militar dos EUA para alavancar plataformas que são pequenas, inteligentes, baratas e muitas”, disse a vice-secretária de Defesa Kathleen Hicks em Agosto.

Embora o seu financiamento seja incerto e os detalhes sejam vagos, espera-se que o Replicator acelere decisões difíceis sobre qual tecnologia de IA é madura e confiável o suficiente para ser implantada – inclusive em sistemas armados.

Há pouca controvérsia entre cientistas, especialistas da indústria e funcionários do Pentágono de que, nos próximos anos, os EUA terão armas letais totalmente autónomas. E embora as autoridades insistam que os seres humanos estarão sempre no controlo, os especialistas dizem que os avanços na velocidade do processamento de dados e nas comunicações entre máquinas irão inevitavelmente relegar as pessoas para funções de supervisão.

Isto é especialmente verdade se, como esperado, armas letais forem utilizadas em massa em enxames de drones. Muitos países estão a trabalhar nisso – e nem a China, a Rússia, o Irão, a Índia ou o Paquistão assinaram um acordo. Promessa iniciada pelos EUA usar a IA militar de forma responsável.

Cimeira de IA Cibernética e Automação
Semana de Segurança Cimeira de IA Cibernética e Automação amplia os limites das discussões sobre segurança, explorando as implicações e aplicações da IA ​​preditiva, aprendizado de máquina e automação em programas de segurança cibernética. (Cadastre-se – Gratuito)

Não está claro se o Pentágono está actualmente a avaliar formalmente qualquer sistema de armas letais totalmente autónomo para implantação, conforme exigido por uma directiva de 2012. Uma porta-voz do Pentágono não quis dizer.

Mudanças de paradigma

O Replicator destaca imensos desafios tecnológicos e de pessoal para a aquisição e desenvolvimento do Pentágono, à medida que a revolução da IA ​​promete transformar a forma como as guerras são travadas.

“O Departamento de Defesa está lutando para adotar os desenvolvimentos de IA do último avanço no aprendizado de máquina”, disse Gregory Allen, um ex-alto funcionário de IA do Pentágono, agora no centro de estudos do Centro de Estudos Estratégicos e Internacionais.

O portfólio do Pentágono possui mais de 800 projetos não classificados relacionados à IA, muitos deles ainda em teste. Normalmente, o aprendizado de máquina e as redes neurais estão ajudando os humanos a obter insights e a criar eficiências.

“A IA que temos no Departamento de Defesa neste momento é fortemente aproveitada e aumenta as pessoas”, disse Missy Cummings, diretora do centro de robótica da Universidade George Mason e ex-piloto de caça da Marinha.” “Não existe IA funcionando sozinha. As pessoas estão usando isso para tentar entender melhor a névoa da guerra.”

Espaço, a nova fronteira da guerra

Um domínio onde as ferramentas assistidas por IA rastreiam ameaças potenciais é o espaço, a mais recente fronteira na competição militar.

A China prevê usar IA, inclusive em satélites, para “tomar decisões sobre quem é ou não um adversário”, disse Lisa Costa, diretora de tecnologia e inovação da Força Espacial dos EUA, em uma conferência online este mês.

Os EUA pretendem manter o ritmo.

Um protótipo operacional chamado Machina, usado pela Força Espacial, monitora de forma autônoma mais de 40.000 objetos no espaço, orquestrando milhares de coletas de dados todas as noites com uma rede global de telescópios.

Os algoritmos de Machina organizam sensores telescópicos. A visão computacional e os grandes modelos de linguagem informam quais objetos rastrear. E coreografias de IA baseadas instantaneamente em conjuntos de dados de astrodinâmica e física, disse o coronel Wallace ‘Rhet’ Turnbull, do Comando de Sistemas Espaciais, em uma conferência em agosto.

Outro projeto de IA da Força Espacial analisa dados de radar para detectar lançamentos iminentes de mísseis adversários, disse ele.

Manutenção de aviões e soldados

Em outros lugares, os poderes preditivos da IA ​​ajudam a Força Aérea a manter a sua frota no ar, antecipando as necessidades de manutenção de mais de 2.600 aeronaves, incluindo bombardeiros B-1 e helicópteros Blackhawk.

Os modelos de aprendizado de máquina identificam possíveis falhas dezenas de horas antes que elas aconteçam, disse Tom Siebel, CEO da C3 AI, com sede no Vale do Silício, que possui o contrato. A tecnologia do C3 também modela as trajetórias de mísseis para a Agência de Defesa de Mísseis dos EUA e identifica ameaças internas na força de trabalho federal para a Agência de Contraespionagem e Segurança de Defesa.

Entre os esforços relacionados com a saúde está um projecto piloto que monitoriza a aptidão de toda a Terceira Divisão de Infantaria do Exército – mais de 13.000 soldados. A modelagem preditiva e a IA ajudam a reduzir lesões e aumentar o desempenho, disse o major Matt Visser.

Ajudando a Ucrânia

Na Ucrânia, a IA fornecida pelo Pentágono e pelos seus aliados da NATO ajuda a impedir a agressão russa.

Os aliados da OTAN partilham informações provenientes de dados recolhidos por satélites, drones e seres humanos, alguns agregados com software do empreiteiro norte-americano Palantir. Alguns dados vêm do Maven, o projeto de IA de descoberta de caminhos do Pentágono agora gerenciado principalmente pela Agência Nacional de Inteligência Geoespacial, dizem autoridades, incluindo o general aposentado da Força Aérea Jack Shanahan, o diretor inaugural de IA do Pentágono,

O Maven começou em 2017 como um esforço para processar vídeo de drones no Médio Oriente – estimulado pelas forças de Operações Especiais dos EUA que lutam contra o ISIS e a Al-Qaeda – e agora agrega e analisa uma vasta gama de dados derivados de sensores e humanos.

A IA também ajudou o Grupo de Assistência à Segurança-Ucrânia, criado pelos EUA, a ajudar a organizar a logística para assistência militar de uma coligação de 40 países, dizem funcionários do Pentágono.

Comando e controle em todos os domínios

Para sobreviver no campo de batalha hoje em dia, as unidades militares devem ser pequenas, em sua maioria invisíveis e mover-se rapidamente porque redes de sensores em crescimento exponencial permitem que qualquer pessoa “veja qualquer lugar do globo a qualquer momento”, observou o então presidente do Joint Chiefs, general Mark Milley, em um comunicado. Discurso de junho. “E o que você pode ver, você pode atirar.”

Para conectar mais rapidamente os combatentes, o Pentágono priorizou o desenvolvimento de redes de batalha interligadas – chamadas Comando e Controle Conjunto de Todos os Domínios – para automatizar o processamento de dados ópticos, infravermelhos, de radar e outros dados em todas as forças armadas. Mas o desafio é enorme e repleto de burocracia.

Christian Brose, antigo diretor do Comité dos Serviços Armados do Senado e agora na empresa de tecnologia de defesa Anduril, está entre os defensores da reforma militar que, no entanto, acreditam que “podem estar a ganhar aqui até certo ponto”.

“O argumento pode ser menos sobre se esta é a coisa certa a fazer, e cada vez mais sobre como realmente o fazemos – e sobre os prazos rápidos necessários”, disse ele. O livro de Brose de 2020, “The Kill Chain”, defende uma reformulação urgente para acompanhar a China na corrida para desenvolver sistemas de armas em rede mais inteligentes e baratos.

Para esse fim, os militares dos EUA estão a trabalhar arduamente na “equipa homem-máquina”. Dezenas de veículos aéreos e marítimos não tripulados monitoram atualmente a atividade iraniana. Os fuzileiros navais e as forças especiais dos EUA também usam o mini-helicóptero Ghost autônomo da Anduril, torres de sensores e tecnologia de contra-drones para proteger as forças americanas.

Os avanços da indústria em visão computacional foram essenciais. Shield AI permite que drones operem sem GPS, comunicações ou mesmo pilotos remotos. É a chave do seu Nova, um quadricóptero, que as unidades de operações especiais dos EUA têm usado em áreas de conflito para explorar edifícios.

No horizonte: O programa “leal wingman” da Força Aérea pretende emparelhar aeronaves pilotadas com aeronaves autônomas. Um piloto de F-16 pode, por exemplo, enviar drones para explorar, atrair fogo inimigo ou atacar alvos. Os líderes da Força Aérea pretendem estrear ainda nesta década.

A corrida para a autonomia total

A linha do tempo do “ala leal” não combina muito com a do Replicator, que muitos consideram excessivamente ambicioso. A imprecisão do Pentágono sobre o Replicator, entretanto, pode em parte ter a intenção de manter os rivais na dúvida, embora os planejadores também possam ainda estar tateando os recursos e os objetivos da missão, disse Paul Scharre, especialista militar em IA e autor de “Four Battlegrounds”.

Anduril e Shield AI, cada uma apoiada por centenas de milhões em financiamento de capital de risco, estão entre as empresas que disputam contratos.

Nathan Michael, diretor de tecnologia da Shield AI, estima que eles terão um enxame autônomo de pelo menos três aeronaves não tripuladas prontas em um ano usando seu drone aéreo V-BAT. Os militares dos EUA usam atualmente o V-BAT – sem uma mente de IA – em navios da Marinha, em missões antidrogas e em apoio às Unidades Expedicionárias da Marinha, afirma a empresa.

Levará algum tempo até que enxames maiores possam ser colocados em campo de forma confiável, disse Michael. “Tudo é rastejar, andar, correr – a menos que você esteja se preparando para o fracasso.”

Os únicos sistemas de armas em que Shanahan, o primeiro chefe da IA ​​do Pentágono, confia actualmente para operar de forma autónoma são totalmente defensivos, como os sistemas anti-mísseis Phalanx em navios. Ele se preocupa menos com armas autônomas que tomam decisões por conta própria do que com sistemas que não funcionam como anunciado ou que matam não-combatentes ou forças amigas.

O atual diretor digital e de IA do departamento, Craig Martell, está determinado a não permitir que isso aconteça.

“Independentemente da autonomia do sistema, sempre haverá um agente responsável que entende as limitações do sistema, treinou bem com o sistema, tem confiança justificada de quando e onde ele pode ser implantado – e sempre assumirá a responsabilidade”, disse Martell, que anteriormente dirigiu o aprendizado de máquina no LinkedIn e no Lyft. “Isso nunca deixará de ser o caso.”

Quanto a quando a IA será suficientemente fiável para autonomia letal, Martell disse que não faz sentido generalizar. Por exemplo, Martell confia no controle de cruzeiro adaptativo de seu carro, mas não na tecnologia que deveria impedi-lo de mudar de faixa. “Como agente responsável, eu não implantaria isso, exceto em situações muito restritas”, disse ele. “Agora extrapole isso para os militares.”

O escritório de Martell está avaliando possíveis casos de uso generativo de IA – tem uma força-tarefa especial para isso – mas se concentra mais em testar e avaliar a IA em desenvolvimento.

Um desafio urgente, diz Jane Pinelis, engenheiro-chefe de IA do Laboratório de Física Aplicada da Universidade Johns Hopkins e ex-chefe de garantia de IA no escritório de Martell, está recrutando e retendo o talento necessário para testar a tecnologia de IA. O Pentágono não pode competir em termos de salários. Os PhDs em ciência da computação com habilidades relacionadas à IA podem ganhar mais do que os generais e almirantes militares de alto escalão.

Os padrões de teste e avaliação também são imaturos, destacou um relatório recente da Academia Nacional de Ciências sobre IA da Força Aérea.

Poderá isso significar que um dia os EUA colocarão em campo, sob coação, armas autónomas que não são totalmente aprovadas?

“Continuamos partindo do pressuposto de que temos tempo para fazer isso da forma mais rigorosa e diligente possível”, disse Pinelis. “Acho que se não estivermos preparados e for hora de agir, alguém será forçado a tomar uma decisão.”

Com informações de Cibersegurança Notícias e Ciberseg.