Quebrando a caixa preta: cientistas chineses resolvem um "grande desafio difícil" para o projeto de IA da Força Aérea dos EUA

0

Pesquisadores estão criando um sistema de combate aéreo inteligente que pode explicar as decisões que toma durante as batalhas para os humanos

Ele supera a questão da "caixa preta" que tem sido um obstáculo para os militares dos EUA e da China em meio a uma corrida armamentista de IA


Stephen Chen | South China Morning Post em Pequim

Em Xian, uma antiga cidade no noroeste da China que deu origem a algumas das dinastias mais poderosas, um novo poder está surgindo à medida que os cientistas criam uma forma de inteligência artificial (IA) para os militares que nunca foi vista antes.

Pesquisadores chineses estão criando um sistema de combate aéreo alimentado por IA que pode explicar a um humano como ele tomou suas decisões. Foto: EPA-EFE/Xinhua

O sistema de combate aéreo inteligente pode explicar as decisões que toma durante batalhas intensas e compartilhar os motivos por trás desses movimentos com os humanos.

Esse avanço tecnológico significa que a China superou um obstáculo que tem confundido os militares há anos. Também significa uma intensidade crescente na corrida armamentista entre Washington e Pequim.

Os Estados Unidos começaram a testar a aplicação da IA em combate aéreo mais cedo do que a China. Enquanto a China ainda estava engajada em combates no céu real entre drones controlados por humanos e controlados por IA, pilotos de teste dos EUA já haviam levado sua IA de combate aos céus para testes.

Mas, embora não esteja claro se os EUA também resolveram o mesmo obstáculo de IA em seu novo caça F-16 movido a IA que a China diz ter, o trabalho inovador dos cientistas chineses certamente mudará a face das batalhas aéreas no futuro.

As tecnologias de IA predominantes, como o aprendizado por reforço profundo e os grandes modelos de linguagem, operam como uma caixa preta: as tarefas entram em uma extremidade e os resultados emergem da outra, enquanto os humanos são deixados no escuro sobre o funcionamento interno.

Mas o combate aéreo é uma questão de vida ou morte. Em um futuro próximo, os pilotos precisarão trabalhar em estreita colaboração com a IA, às vezes até confiando suas vidas a essas máquinas inteligentes. A questão da "caixa preta" não só mina a confiança das pessoas nas máquinas, mas também impede uma comunicação profunda entre elas.

Desenvolvido por uma equipe liderada por Zhang Dong, professor associado da escola de aeronáutica da Northwestern Polytechnical University, o novo sistema de combate de IA pode explicar cada instrução que envia ao controlador de voo usando palavras, dados e até gráficos.

Essa IA também pode articular o significado de cada diretiva em relação à situação de combate atual, as manobras de voo específicas envolvidas e as intenções táticas por trás delas.

A equipe de Zhang descobriu que essa tecnologia abre uma nova janela para pilotos humanos interagirem com a IA.

Por exemplo, durante uma sessão de revisão após uma escaramuça simulada, um piloto experiente pode discernir as pistas que levaram ao fracasso na auto-apresentação da IA. Um mecanismo de feedback eficiente permite que a IA compreenda as sugestões de colegas de equipe humanos e contorne armadilhas semelhantes em batalhas subsequentes.

A equipe de Zhang descobriu que esse tipo de IA, que pode se comunicar com humanos "de coração", pode alcançar uma taxa de vitória de quase 100% com apenas cerca de 20.000 rodadas de treinamento de combate. Em contraste, a IA convencional da "caixa preta" só consegue atingir uma taxa de vitória de 90% após 50.000 rodadas e luta para melhorar ainda mais.

Atualmente, a equipe de Zhang só aplicou a tecnologia em simuladores terrestres, mas aplicações futuras seriam "estendidas a ambientes de combate aéreo mais realistas", escreveram em um artigo revisado por pares publicado na revista acadêmica chinesa Acta Aeronautica et Astronautica Sinica, em 12 de abril.

Nos EUA, a questão da "caixa preta" já foi mencionada no passado como um problema para os pilotos.

Os testes de combate de cães dos Estados Unidos estão sendo realizados entre a Força Aérea e a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA, na sigla em inglês). Um oficial sênior da DARPA reconheceu que nem todos os pilotos da Força Aérea acolhem a ideia devido à questão da "caixa preta".

"O grande desafio difícil que estou tentando enfrentar em meus esforços aqui na DARPA é como construir e manter a custódia da confiança nesses sistemas que são tradicionalmente pensados como caixas pretas que são inexplicáveis", disse o coronel Dan Javorsek, gerente de programa do Escritório de Tecnologia Estratégica da DARPA, em entrevista à National Defence Magazine em 2021.

A DARPA adotou duas estratégias para ajudar os pilotos a superar sua apreensão de "caixa preta". Uma abordagem permite que a IA inicialmente lide com tarefas mais simples e de nível inferior, como selecionar automaticamente a arma mais adequada com base nos atributos do alvo bloqueado, permitindo que os pilotos lancem com um único toque de um botão.

O outro método envolve oficiais de alta patente embarcando pessoalmente em caças movidos por IA para demonstrar sua confiança e determinação.

No início deste mês, o secretário da Força Aérea, Frank Kendall, fez um voo de uma hora em um F-16 controlado por inteligência artificial na Base Aérea de Edwards. Ao aterrissar, ele disse à Associated Press que viu o suficiente durante seu voo para confiar nessa IA "ainda em aprendizado" com a capacidade de decidir se lançaria armas na guerra.

"É um risco de segurança não ter. Neste momento, temos que tê-lo", disse Kendall à AP.

O risco de segurança é a China. A Força Aérea dos EUA disse à AP que a IA lhes oferece uma chance de prevalecer contra a cada vez mais formidável Força Aérea Chinesa no futuro. Na época, o relatório disse que, embora a China tivesse IA, não havia indicação de que eles haviam descoberto um método para realizar testes além dos simuladores.

Mas, de acordo com o artigo da equipe de Zhang, os militares chineses impõem avaliações rigorosas de segurança e confiabilidade para IA, insistindo que a IA seja integrada a caças apenas depois de quebrar o enigma da "caixa preta".

Os modelos de aprendizagem por reforço profundo geralmente produzem resultados de tomada de decisão que são enigmáticos para os humanos, mas exibem eficácia de combate superior em aplicações do mundo real. É desafiador para os seres humanos compreender e deduzir essa estrutura de tomada de decisão com base em experiências pré-existentes.

"Isso representa um problema de confiança com as decisões da IA", escreveram Zhang e seus colegas.

"Decodificar o 'modelo de caixa preta' para permitir que os humanos discirnam o processo de tomada de decisão estratégica, compreendam as intenções de manobra do drone e confiem nas decisões de manobra, é o pivô da aplicação de engenharia da tecnologia de IA em combate aéreo. Isso também ressalta o objetivo principal de nosso avanço na pesquisa", disseram.

A equipe de Zhang mostrou as proezas dessa IA por meio de vários exemplos em seu estudo. Por exemplo, em um cenário de perda, a IA inicialmente pretendia escalar e executar uma manobra de cobra, seguida por uma sequência de turnos de combate, rolos de aileron e loops para enfrentar a aeronave inimiga, culminando em manobras de evasão como mergulho e nivelamento.

Mas um piloto experiente poderia discernir rapidamente as falhas nessa combinação de manobras radicais. As subidas consecutivas da IA, turnos de combate, rolos de aileron e mergulhos levaram a velocidade do drone a despencar durante o combate, eventualmente não conseguindo sacudir o inimigo.

E aqui está a instrução humana para a IA, como escrito no artigo: "A velocidade reduzida resultante de manobras radicais consecutivas é a culpada por trás dessa perda de batalha aérea, e tais decisões devem ser evitadas no futuro".

Em outra rodada, onde um piloto humano normalmente adotaria métodos como ataques laterais para encontrar posições eficazes para destruir aeronaves inimigas, a IA usou grandes manobras para induzir o inimigo, entrou na fase de sinuosidade lateral mais cedo e usou o voo de nível no estágio final para enganar o inimigo, conseguindo um ataque vencedor crítico com grandes manobras repentinas.

Depois de analisar as intenções da IA, os pesquisadores descobriram uma manobra sutil que se mostrou fundamental durante o impasse.

A IA "adotou uma tática de nivelamento e volta, preservando sua velocidade e altitude enquanto atraía o inimigo para executar mudanças radicais de direção, esgotando sua energia cinética residual e abrindo caminho para manobras de loop subsequentes para entregar um contra-ataque", escreveu a equipe de Zhang.

A Northwestern Polytechnical University é uma das mais importantes bases de pesquisa de tecnologia militar da China. O governo dos EUA impôs sanções severas a ele e fez repetidas tentativas de se infiltrar em seu sistema de rede, provocando fortes protestos do governo chinês.

Mas parece que as sanções dos EUA não tiveram impacto óbvio na troca entre a equipe de Zhang e seus colegas internacionais. Eles aproveitaram novos algoritmos compartilhados por cientistas americanos em conferências globais e também divulgaram seus algoritmos e estruturas inovadores em seu artigo.

Alguns especialistas militares acreditam que os militares chineses têm um interesse mais forte em estabelecer guanxi – conexão – entre IA e combatentes humanos do que seus colegas americanos.

Por exemplo, o caça furtivo da China, o J-20, possui uma variante de dois lugares, com um piloto dedicado a interagir com asas não tripuladas controladas por IA, uma capacidade atualmente ausente nos caças F-22 e F-35 dos EUA.

Mas um físico de Pequim que pediu para não ser identificado devido à sensibilidade da questão disse que a nova tecnologia poderia borrar a linha entre humanos e máquinas.

"Pode abrir a caixa de Pandora", disse.

Postar um comentário

0Comentários

Postar um comentário (0)

#buttons=(Ok, Vamos lá!) #days=(20)

Nosso site usa cookies para melhorar sua experiência. Check Now
Ok, Go it!