O Japão buscará regras globais sobre “robôs assassinos” autônomos. O país pedirá regras internacionais sobre armas letais equipadas com Inteligência Artificial (IA) para impedir que máquinas autônomas iniciem guerras, causando acidentes fatais e ‘decidindo’ quem pode viver ou morrer, disseram fontes ao jornal japonês Asahi Shimbun.
Tóquio deverá apresentar uma proposta por escrito para a conferência da Convenção sobre Armas Convencionais (CCW), órgão vinculado à ONU, que acontecerá entre 25 e 29 de março em Genebra. O governo japonês quer assumir um papel de liderança nas discussões sobre a regulamentação das chamadas Laws (Lethal Autonomous Weapons Systems, em português, “sistemas letais de armas autônomas”), disseram as fontes.
SEM CONTROLE HUMANO Essas armas, com Inteligência Artificial A integrada, podem capturar ou atacar um alvo sem controle humano. Força mortal poderia ser implantada com base na ‘intenção’ da IA instalada. O Japão enfatizará que é essencial que os humanos estejam no controle das leis. “Assim como a pólvora e as armas nucleares mudaram a forma como as guerras foram conduzidas no passado, a Inteligência Artificial poderia alterar fundamentalmente o curso das guerras futuras”, disse o ministro das Relações Exteriores do Japão, Taro Kono.
Acredita-se que China, Estados Unidos e Rússia estejam desenvolvendo Laws, embora as armas ainda não tenham sido colocadas em prática. Laws são uma geração totalmente nova em relação ao já bastante criticado uso de drones em operações militares, prática bastante comum por parte de tropas americanas. A própria colaboração de TechGiants com a Defesa dos Estados Unidos gera polêmica e protestos entre os próprios funcionários das empresas envolvidas.
Sem citar fontes, a reportagem diz que associações internacionais de direitos humanos classificam a tecnologia como robôs assassinos. Essencialmente, dizem que vidas humanas nunca deveriam ser colocadas nas mãos da inteligência artificial. Laws poderiam ainda facilitar o início de conflitos militares por parte dos países porque eles poderiam lançar ataques sem arriscar a vida de suas tropas. Mas uma máquina equipada com IA poderia atingir alvo errado por causa de uma falha no sistema, por exemplo.
FALHA DE JULGAMENTO Uma reportagem da Vox traz a posição do Comitê Internacional da Cruz Vermelha (ICRC) e outros críticos ao uso de armas autônomas dizendo que as máquinas não têm as pistas do contexto de que precisam para tomar decisões, colocando os civis em risco. “Um combatente humano pode distinguir entre um soldado com uma arma e um civil tentando proteger sua casa. E ele pode usar a ética para julgar. Já um robô não necessariamente faria tudo isso.”
O governo japonês pretende encorajar os participantes da conferência a discutir como os humanos podem manter o controle sobre as leis. De acordo com a reportagem, mas sem citar fontes, países latino-americanos estão buscando um tratado juridicamente vinculativo que proíba o desenvolvimento de Laws, e que Estados Unidos e Rússia teriam se posicionado sobre ser cedo demais para considerar tal tratado sobre as armas.
Com os dois lados bem opostos, o primeiro passo do Japão será chegar a um consenso entre os países com base em um protocolo sem poder legalmente vinculante, disseram as fontes. O próprio Japão não tem planos de produzir Laws. “Não pretendemos desenvolver nenhuma arma letal que seja completamente autônoma e funcione sem controle humano”, disse o primeiro-ministro do país, Shinzo Abe. O governo, no entanto, planeja pesquisar e desenvolver IA ou equipamentos não tripulados para garantir a segurança e reduzir o ônus das Forças de Autodefesa.