Folha de S. Paulo


Armas autônomas podem fugir do controle do homem, alerta estudo

Kirsty Wigglesworth/AFP
A judoca Stefannie Arissa Koyama, que disputará o Mundial de Budapeste pela seleção brasileira
Drone não tripulado dos Estados Unidos sobrevoa campo aéreo de Kandahar, no Afeganistão

Uma nova corrida armamentista na inteligência artificial e robótica corre o risco de escapar ao controle humano, de acordo com um relatório preparatório para o Fórum Econômico Mundial de Davos, que acontece na próxima semana.

O relatório anual sobre "Riscos Globais" destaca a crescente preocupação com a falta de restrições regulatórias às tecnologias de inteligência artificial, cada vez mais usadas no setor de defesa e em outras áreas da vida, e que em breve poderão ser capazes de superar os seres humanos intelectualmente.

Embora argumente que reduzir o poder de comando humano pode aumentar a eficiência e ser necessário para aplicações como os carros autoguiados, o estudo também adverte sobre "o perigo de depender inteiramente das decisões de sistemas de inteligência artificial quando não compreendemos plenamente de que maneira os sistemas estão tomando suas decisões."

Até o momento, as aplicações da inteligência artificial vêm sendo relativamente estreitas e limitadas à solução de problemas como transações automatizadas de ações. No entanto, o campo está se desenvolvendo rapidamente, e tecnologias desse tipo já começam a ser empregadas em áreas nas quais as preocupações éticas e de segurança são mais fortes.

O relatório registra preocupação especial quanto ao campo dos sistemas autônomos de armas, que vem atraindo grandes investimentos.

Declarando que "uma nova corrida armamentista está se desenvolvendo no campo das armas robotizadas", o relatório diz que, à medida que o uso da inteligência artificial se torne mais comum, "também crescerão os riscos de que esses aplicativos operem de maneira imprevista ou que escapem ao controle dos seres humanos."

O texto acrescenta que "alguns pensadores sérios consideram que a inteligência artificial possa um dia vir a ameaçar nossa existência: uma 'superinteligência' poderia buscar objetivos que não se alinhariam à existência continuada da humanidade."

CONTROLE INSUFICIENTE

Bill Gates, fundador da Microsoft, declarou no ano passado que "sou uma das pessoas que se preocupam com a superinteligência. Primeiro as máquinas farão muitos trabalhos para nós, e não serão superinteligentes. Isso deve ser positivo, se administrarmos bem o processo. Mas algumas décadas depois, a inteligência delas talvez se torne forte o suficiente para causar preocupação."

O relatório afirma que a inteligência artificial tem o potencial de melhorar a produtividade e os processos decisórios em muitas áreas, mas destaca aquilo que descreve como o perigo do controle insuficiente.

"A inteligência artificial toma uma decisão, de uma maneira ou de outra. Pode nem ser uma decisão programada, mas algo aprendido ao longo do tempo por meio do reconhecimento de padrões", disse John Drziak, um dos autores do relatório, presidente de produtos especializados e risco internacional no grupo Marsh, que trabalha com corretagem de seguros e gestão de riscos.

Os perigos dessa forma de aprendizado mecânico foram revelados no ano passado quando um chatbot do Twitter teve de ser desativado depois de começar a postar mensagens cada vez mais racistas, sexistas e xenófobas, baseado naquilo que havia "aprendido" on-line.

O relatório destaca preocupações especiais quanto ao uso da inteligência artificial para fins militares, argumentando que usar a tecnologia para criar armas "representará uma mudança de paradigma na maneira pela qual guerras são combatidas, com profundas consequências para a segurança e estabilidade internacional."

Apontando o temor de que seres humanos encarreguem máquinas de tomar decisões sobre o uso de força letal, o estudo destaca que alguns dos princípios subjacentes da inteligência artificial não se enquadram aos padrões normais de pensamento humano.

"Se essa lógica binária —na qual a única coisa que importa é vencer, e a margem de vitória é irrelevante— for incorporada a um grande sistema de armas, isso pode levar à violação do princípio da proporcionalidade, porque um algoritmo não veria diferença entre vitórias que requerem matar um adversário ou matar mil", afirma o relatório.

"Talvez já tenhamos passado do ponto em que seria possível proibir o desenvolvimento desse tipo de arma. Uma corrida armamentista rumo a sistemas de armas autônomos é muito provável no futuro próximo."

Tradução de PAULO MIGLIACCI


Endereço da página: