Defensores argumentam que os algoritmos avançados podem superar as capacidades humanas e ajudar o exército a minimizar baixas
Por Marissa Newman | Bloomberg
As Forças de Defesa de Israel começaram a usar inteligência artificial para selecionar alvos de ataques aéreos e organizar logísticas de guerra à medida que as tensões aumentam nos territórios ocupados e com o Irã.
Embora o exército não comente operações específicas, os oficiais afirmam que agora usam um sistema de recomendação de IA que pode processar grandes quantidades de dados para selecionar alvos de ataques aéreos.
Os ataques subsequentes podem ser rapidamente montados com outro modelo de inteligência artificial chamado “Fire Factory”, que utiliza dados sobre alvos aprovados pelo exército para calcular cargas de munição, priorizar e atribuir milhares de alvos a aeronaves e drones, bem como propor um cronograma.
Embora ambos os sistemas sejam supervisionados por operadores humanos que examinam e aprovam alvos individuais e planos de ataques aéreos, de acordo com um oficial das Forças de Defesa de Israel (FDI), a tecnologia ainda não está sujeita a regulamentações internacionais nem estatais.
Os defensores argumentam que os algoritmos avançados podem superar as capacidades humanas e ajudar o exército a minimizar baixas, enquanto críticos alertam para as potencialmente mortais consequências de depender de sistemas cada vez mais autônomos.
Detalhes do uso operacional de IA pelo exército ainda são em grande parte sigilosos, mas declarações de oficiais militares sugerem que as FDI adquiriram experiência de campo com esses sistemas por meio de surtos periódicos na Faixa de Gaza, onde Israel realiza frequentemente ataques aéreos em resposta a ataques com mísseis.
“Guerra da IA”
Em 2021, as FDI descreveram o conflito de 11 dias na Faixa de Gaza como a primeira “guerra da IA” do mundo, citando o uso de inteligência artificial para identificar locais de lançamento de foguetes e implantar diversos drones. Israel também realiza incursões na Síria e no Líbano, visando o que afirma serem remessas de armas para milícias apoiadas pelo Irã, como o Hezbollah.
Nos últimos meses, Israel tem emitido advertências diárias ao Irã sobre seu enriquecimento de urânio, prometendo que não permitirá que o país obtenha armas nucleares sob nenhuma circunstância.
Se os dois entrarem em confronto militar, as FDI preveem que procuradores iranianos em Gaza, Síria e Líbano retaliarão, criando o cenário para o primeiro conflito em várias frentes de Israel desde um ataque surpresa do Egito e da Síria há 50 anos, que deu origem à Guerra do Yom Kippur.
Ferramentas baseadas em IA, como o Fire Factory, são projetadas para esse cenário, de acordo com oficiais das FDI.
“O que costumava levar horas agora leva minutos, com mais alguns minutos para revisão humana”, disse o coronel Uri, que chefia a unidade de transformação digital do exército e que falou na sede das IDF em Tel Aviv sob condição de que apenas seu primeiro nome fosse usado por motivos de segurança. “Com a mesma quantidade de pessoas, fazemos muito mais.”
O sistema, segundo esses oficiais, é projetado para uma guerra total.
Expansão dos sistemas
A FDI tem usado a IA há muito tempo, mas nos últimos anos expandiu esses sistemas para várias unidades, buscando se posicionar como líder global em armamentos autônomos.
Alguns desses sistemas foram desenvolvidos por empresas de defesa israelenses; outros, como as câmeras de controle de fronteira StarTrack, que são treinadas em milhares de horas de filmagens para identificar pessoas e objetos, foram desenvolvidos pelo exército.
Juntos, eles compõem uma vasta arquitetura digital dedicada à interpretação de enormes quantidades de imagens de drones, imagens de satélite, sinais eletrônicos, comunicações online e outros dados para uso militar.
Lidar com esse volume de informações é a função do Centro de Ciência de Dados e Inteligência Artificial, administrado pela unidade 8200 do exército.
Com sede na divisão de inteligência, essa unidade é onde muitos dos multimilionários de tecnologia do país, incluindo Nir Zuk, da Palo Alto Networks, e Gil Shwed, fundador da Check Point Software Technologies, fizeram seu serviço militar obrigatório antes de criar startups de sucesso.
Segundo um porta-voz, o Centro foi responsável por desenvolver o sistema que “transformou todo o conceito de alvos nas FDI”.
A natureza sigilosa de como essas ferramentas são desenvolvidas levantou sérias preocupações, incluindo a possibilidade de que a lacuna entre sistemas semi-autônomos e máquinas de matar totalmente automatizadas possa ser reduzida da noite para o dia.
Nesse cenário, máquinas seriam autorizadas a localizar e atacar alvos, com seres humanos totalmente removidos de posições de tomada de decisões.
“É apenas uma mudança de software que poderia fazê-los passar de semi-autônomos para completamente autônomos”, disse Catherine Connolly, pesquisadora de decisões automatizadas no Stop Killer Robots, uma coalizão de organizações não governamentais que inclui Human Rights Watch e Amnesty International. Israel diz que não tem planos de remover a supervisão humana nos próximos anos.
Outra preocupação é que a rápida adoção da IA esteja superando a pesquisa sobre seu funcionamento interno. Muitos algoritmos são desenvolvidos por empresas privadas e militares que não divulgam informações proprietárias, e os críticos destacaram a falta de transparência embutida em como os algoritmos chegam a suas conclusões.
As FDI reconheceram o problema, mas disseram que a saída é cuidadosamente revisada por soldados e que seus sistemas militares de IA deixam migalhas técnicas para trás, dando aos operadores humanos a capacidade de recriar seus passos.
“Às vezes, quando você introduz componentes de IA mais complexos, como redes neurais e outros, entender o que ‘passou pela cabeça’ dele, figurativamente falando, é bastante complicado. E às vezes estou disposto a dizer que estou satisfeito com a rastreabilidade, não a explicação. Ou seja, quero entender o que é crítico sobre o processo e monitorá-lo, mesmo que eu não entenda o que cada ‘neurônio’ está fazendo”, disse Uri.
As FDI se recusaram a comentar sobre a tecnologia de reconhecimento facial, que tem sido fortemente criticada por grupos de direitos humanos.
A principal vantagem da integração da IA nos sistemas de combate, segundo especialistas, é o potencial para reduzir baixas civis. “Acredito que há um benefício de eficácia em usar essas tecnologias da forma correta. E, dentro dos parâmetros tecnológicos de funcionamento adequados, pode haver uma precisão muito, muito alta”, disse Simona R. Soare, pesquisadora do Instituto Internacional de Estudos Estratégicos, sediado em Londres.
“Pode ajudar em muitas coisas que você precisa fazer na hora, na névoa da batalha. E isso é muito difícil de fazer no melhor dos dias.” “Mas também muitas coisas podem dar errado”, acrescentou.
Preocupações éticas
Enquanto líderes israelenses delinearam sua intenção de tornar o país uma “superpotência de IA”, eles foram vagos nos detalhes. O Ministério da Defesa se recusou a comentar quanto investiu em IA, e o exército não discute contratos de defesa específicos, embora tenha confirmado que o Fire Factory foi desenvolvido pela empresa de defesa israelense Rafael.
O que deixa ainda menos transparente é o fato de que, diferentemente da corrida armamentista nuclear – em que vazar detalhes sobre as capacidades das armas era um aspecto-chave da dissuasão –, sistemas autônomos e de IA estão sendo desenvolvidos por governos, exércitos e empresas privadas de defesa em segredo.
“Podemos supor que os americanos e até mesmo os chineses e talvez vários outros países tenham sistemas avançados nesses campos também”, disse Liran Antebi, pesquisador sênior do Instituto de Estudos de Segurança Nacional de Israel. Mas, diferentemente de Israel, “eles nunca demonstraram uso e sucesso operacionais”.
Por enquanto, não há limitações. Apesar de uma década de negociações patrocinadas pela ONU, não existe um quadro internacional que estabeleça quem é responsável por baixas civis, acidentes ou escaladas não intencionais quando um computador erra.
“Também há uma questão de testes e dos dados pelos quais esses sistemas são treinados”, disse Connolly, da coalizão Stop Killer Robots. “Quão preciso deve ser um sistema, a menos que já tenha sido treinado e testado em pessoas?”
Em meio a essas preocupações, Mimran, professor de direito da Universidade Hebraica, acredita que as FDI devem usar exclusivamente a IA para fins defensivos. Durante seu tempo no exército, Mimran examinou manualmente alvos para garantir que os ataques estivessem em conformidade com o direito internacional.
Isso o ensinou que, independentemente da tecnologia, “existe um ponto em que você precisa tomar uma decisão com base em valores”. “E para isso”, disse ele, “não podemos depender da IA”.