Um artigo científico publicado na plataforma arXiv.org, da biblioteca da Universidade de Cornell mostra o trabalho de um cientista chamado Paul Yaworsky relacionado a inteligência artificial. Poderia ser mais um entre milhares e milhares artigos sobre o assunto, que é estudado em tantas instituições de educação no mundo todo.
Porém, trata-se de um projeto de desenvolvimento por parte de nada menos que a Força Aérea norte-americana e que trata daquilo que é chamado de inteligência artificial geral, que é a inteligência de uma máquina que poderia realizar com sucesso qualquer tarefa intelectual que um ser humano pode. Ou seja, essa é a tal da IA que todos temem e, nas mãos de uma instituição militar, pode significar uma porção de coisas, algumas delas bem perigosas.
Como isso funciona?
A explicação para esse projeto da Força Aérea norte-americana está no próprio artigo: “Abordamos essa lacuna desenvolvendo um modelo para inteligência geral. Para conseguir isso, nos concentramos em três aspectos básicos da inteligência. Primeiro, devemos perceber a ordem geral e a natureza da inteligência em alto nível. Em segundo lugar, devemos conhecer o que essas realizações significam em relação ao processo geral de inteligência. Terceiro, devemos descrever essas realizações da forma mais clara possível. Propomos um modelo hierárquico para ajudar a capturar e explorar a ordem dentro da inteligência”.
Uma análise superficial ao trabalho de Yaworsky – que ainda está em fase inicial – mostra que o caminho que está seguindo pode ser bem-sucedido para desenvolver uma inteligência artificial geral. Ele propõe uma hierarquia para essa tecnologia, como um guia para desenvolvedores de machine learning. Isso seria um meio de explicar essa ferramenta de maneira benéfica, mas ainda há muito o que caminhar para que algo saia do papel.
Que a inteligência artificial geral vai ser uma tecnologia muito importante para a humanidade no futuro, praticamente não há dúvidas. Mas como isso vai ser usado, toda a ética por trás disso, ainda precisa ser muito discutida, pois disso podem sair máquinas inteligentes capazes de matar sem o menor remorso ou moral. Nesse caso, com certeza, todo o cuidado vai ser pouco.