A OpenAI já havia proibido o uso de sua tecnologia para "desenvolvimento de armas, militares e de guerra"
Por Michael Lee | Fox News
A OpenAI, empresa-mãe da popular plataforma de chatbots de inteligência artificial ChatGPT, alterou sua política de uso para se livrar da proibição de usar sua tecnologia para "militares e guerras".
A política de uso da OpenAI proibiu especificamente o uso de sua tecnologia para "desenvolvimento de armas, militares e de guerra" antes de 10 de janeiro deste ano, mas essa política foi atualizada para apenas proibir o uso que "traria danos a outros", de acordo com um relatório da Computer World.
"Nossa política não permite que nossas ferramentas sejam usadas para prejudicar pessoas, desenvolver armas, para vigilância de comunicações, ferir outras pessoas ou destruir propriedades", disse um porta-voz da OpenAI à Fox News Digital. "Há, no entanto, casos de uso de segurança nacional que se alinham com a nossa missão. Por exemplo, já estamos trabalhando com a DARPA para estimular a criação de novas ferramentas de segurança cibernética para proteger o software de código aberto do qual a infraestrutura crítica e a indústria dependem. Não ficou claro se esses casos de uso benéficos teriam sido permitidos sob "militares" em nossas políticas anteriores. Então, o objetivo com a nossa atualização de política é fornecer clareza e a capacidade de ter essas discussões."
A mudança silenciosa agora permitirá que a OpenAI trabalhe em estreita colaboração com os militares, algo que tem sido um ponto de divisão entre aqueles que dirigem a empresa.
Mas Christopher Alexander, diretor de análise do Pioneer Development Group, acredita que a divisão dentro da empresa vem de um mal-entendido sobre como os militares realmente usariam a tecnologia da OpenAI.
"A facção perdedora está preocupada com a IA se tornando muito poderosa ou incontrolável e provavelmente não entende como a OpenAI pode apoiar os militares", disse Alexander à Fox News Digital. "O uso mais provável do OpenAI é para trabalhos administrativos e logísticos de rotina, o que representa uma enorme economia de custos para o contribuinte. Estou feliz em ver que a liderança atual da OpenAI entende que melhorias nos recursos do DOD levam a uma eficácia aprimorada, o que se traduz em menos vidas perdidas no campo de batalha."
À medida que a IA continuou a crescer, também aumentaram as preocupações com os perigos representados pela tecnologia. O relatório da Computer World apontou um desses exemplos em maio passado, quando centenas de líderes de tecnologia e outras figuras públicas assinaram uma carta aberta alertando que a IA poderia eventualmente levar a um evento de extinção e que colocar grades de proteção para evitar isso deveria ser uma prioridade.
"Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos de escala social, como pandemias e guerra nuclear", diz a carta.
O CEO da OpenAI, Sam Altman, foi uma das figuras mais proeminentes da indústria a assinar a carta, destacando o aparente desejo de longa data da empresa de limitar o potencial perigoso da IA.
Mas alguns especialistas acreditam que tal movimento era inevitável para a empresa, observando que adversários americanos como a China já estão olhando para um futuro campo de batalha onde a IA desempenha um papel proeminente.
"Esta é provavelmente uma confluência de eventos. Primeiro, o desempoderamento do conselho sem fins lucrativos provavelmente inclinou a balança para o abandono dessa política. Em segundo lugar, os militares terão aplicativos que salvam vidas, bem como podem tirar vidas, e não permitir esses usos é difícil de justificar. E, por último, dados os avanços em IA com nossos inimigos, tenho certeza de que o governo dos EUA pediu aos provedores de modelos que mudassem essas políticas. Não podemos ter nossos inimigos usando a tecnologia e os EUA não", disse Phil Siegel, fundador do Centro de Simulação de Preparação Avançada e Resposta a Ameaças, à Fox News Digital.
"Devemos nos preocupar que, à medida que a IA aprende a se tornar uma máquina de matar e mais avançada em guerra estratégica, tenhamos salvaguardas em vigor para evitar que ela seja usada contra ativos domésticos."
Samuel Mangold-Lenett, editor da equipe do The Federalist, expressou um sentimento semelhante, argumentando que a melhor maneira de evitar um evento catastrófico nas mãos de um adversário como a China é que os EUA construam suas próprias capacidades robustas de IA para uso militar.
"A OpenAI provavelmente sempre colaboraria com os militares. A IA é a nova fronteira e é simplesmente importante demais de um desenvolvimento tecnológico para não ser usada na defesa", disse Mangold-Lenett à Fox News Digital. "O governo federal deixou clara a intenção de utilizá-lo para esse fim. O CEO Sam Altman expressou preocupação com as ameaças que a IA representa para a humanidade; nossos adversários, ou seja, a China, pretendem totalmente usar IA em futuros empreendimentos militares que provavelmente envolverão os EUA."
Mas tal necessidade não significa que o desenvolvimento de IA não deva ser feito com segurança, disse o diretor de projeto da American Principles, Jon Schweppe, que disse à Fox News Digital que líderes e desenvolvedores ainda terão que se preocupar com "o problema da IA descontrolada".
"Não só temos que nos preocupar com as capacidades de IA dos adversários, mas também temos que nos preocupar com o problema da IA descontrolada", disse Schweppe. "Devemos nos preocupar que, à medida que a IA aprende a se tornar uma máquina de matar e mais avançada em guerra estratégica, tenhamos salvaguardas em vigor para evitar que ela seja usada contra ativos domésticos; ou mesmo no cenário de IA descontrolada, voltando-se contra seu operador e engajando-o como um adversário."
Embora a mudança repentina provavelmente cause maior divisão dentro das fileiras da OpenAI, alguns acreditam que a própria empresa deve ser vista com ceticismo à medida que avança em direção a potenciais parcerias militares. Entre eles está o pesquisador associado do Tech Policy Center da Heritage Foundation, Jake Denton, que apontou para os modelos secretos da empresa.
"Empresas como a OpenAl não são guardiãs morais, e sua bela embalagem de ética é apenas uma fachada para apaziguar os críticos", disse Denton à Fox News Digital. "Embora a adoção de sistemas e ferramentas Al avançadas em nossas forças armadas seja uma evolução natural, os modelos de caixa-preta opaca da OpenAl devem dar uma pausa. Embora a empresa possa estar ansiosa para lucrar com futuros contratos de defesa, até que seus modelos sejam explicáveis, seu design inescrutável deve ser desqualificante."
À medida que o Pentágono recebe mais ofertas de empresas de IA para potenciais parcerias, Denton argumenta que a transparência deve ser uma marca importante de quaisquer negócios futuros.
"À medida que nosso governo explora os pedidos de defesa, devemos exigir transparência", disse Denton. "Sistemas opacos e inexplicáveis não têm lugar em questões de segurança nacional."