Para instigar o debate sobre as diversas facetas que a inteligência artificial (IA) pode adotar conforme o seu uso, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT), dos Estados Unidos, apresentaram ao mundo o que seria a primeira IA psicopata já criada: o robô “Norman”. As informações são do jornal O Globo.

Continua depois da publicidade

Norman é capaz de descrever imagens. Foi ensinado por meio de uma técnica conhecida como aprendizado de máquina para que conseguisse identificar objetos e ações em fotografias. Mas ele não aprendeu com o banco de dados comumente aplicado na instrução de sistemas de IA, cuja sigla em inglês é COCO. Norman foi alimentado com imagens presentes em fóruns do site de mídia social Reddit.

“Ele foi inspirado no fato de que os dados usados para ensinar um algoritmo podem influenciar significativamente seu comportamento. Norman sofreu de prolongada exposição aos piores recantos do Reddit — o maior fórum de discussões da internet — e representa um estudo de caso sobre os perigos da inteligência artificial quando dados enviesados são usados em algoritmos de aprendizado de máquina”, disseram os pesquisadores do MIT Media Lab, em comunicado.

Na hora de avaliar os resultados, 10 imagens com manchas simétricas de tintas foram apresentadas a Norman e a uma máquina alimentada pelo banco COCO. Eles deveriam descrever o que identificavam nas fotos. Enquanto a máquina apontou “uma pessoa segurando um guarda-chuva no ar”, Norman indicou um “homem morto a tiros na frente da mulher que grita”. Em outro exemplo, o algoritmo normal viu “um vaso com flores visto de perto”, já Norman interpretou “um homem é morto a tiros”. O nome do robô foi inspirado no personagem Norman Bates, do filme Psicose, de Alfred Hitchcock.

Debate ético

Em um momento em que se investiga o vazamento de dados envolvendo o Facebook e a consultoria Cambridge Analytica, que coletaram dados de 87 milhões de usuários no mundo ilegalmente – , possivelmente com auxílio de sistemas de IA -, especialistas ressaltam o potencial para o bem e para o mal que seu uso pode provocar. Professor da UFRGS e integrante da Comissão Especial em Algoritmos da Sociedade Brasileira de Computação, Luís da Cunha Lamb ressalta a necessidade de se inserir valores éticos em sistemas inteligentes cada vez mais autônomos.

Continua depois da publicidade

A ação, porém, é tida como mais complexa do que ensinar esses algoritmos a identificar objetos em fotografias. De acordo com o professor de Engenharia de Sistemas e Computação da Coppe/UFRJ, Carlos Eduardo Pedreira, distinguir entre o certo e o errado configura-se como uma capacidade intrinsecamente humana, sendo necessário passos a mais para ser possível ensinar valores a uma máquina.

Para Lamb, ainda não estamos preparados para lidar com essas máquinas, visto que, no fim, elas refletem o que os humanos veem.

— Mesmo que ensinemos valores éticos, serão os valores éticos de quem programá-las — diz Lamb.

Leia também: Somos vigiados? O que é fato e o que é paranoia na exposição às novas tecnologias