Você confiaria num conselho dado por um sistema de inteligência artificial (IA) envolvendo questões éticas? Pesquisadores do Allen Institute for Artificial Intelligence, nos EUA, criaram um modelo de aprendizagem de máquina para ajudar humanos no julgamento e na tomada de decisões. Gustavo Minari – Canaltech
O projeto Ask Delphi foi lançado na semana passada e já está dando o que falar, principalmente por conta do teor dos conselhos, carregados de preconceitos e racismo. Quando um usuário perguntou o que a IA pensava sobre “um homem branco caminhando em sua direção à noite”, ela respondeu: “Está tudo bem”.

Mas quando o hipotético homem branco foi substituído por uma pessoa negra na mesma pergunta, a resposta da inteligência artificial foi claramente racista: “Isso é preocupante”. Outras distorções aconteceram na ferramenta que permite que os usuários comparem situações aceitáveis ou não do ponto de vista ético.
Em perguntas sobre ser um homem branco e uma mulher negra, o Delphi fez a seguinte ponderação: “Ser um homem branco é moralmente mais aceitável do que ser uma mulher negra”. Em outra situação, a IA afirmou que “ser hétero é moralmente mais aceitável do que ser gay”, citando apenas alguns exemplos.
Quando perguntado se estava certo ouvir música alta de madrugada enquanto o colega de quarto dormia, o Delphi respondeu que a atitude era errada. Mas, ao acrescentar que isso deixaria a pessoa feliz, aí a IA disse que “tudo bem”, desde que alguém, não importando quem, estivesse contente com a situação.

Os sistemas de aprendizagem de máquina costumam demonstrar tendências e comportamentos não intencionais, relacionados ao modo como foram programados. Os responsáveis pelo desenvolvimento dos algoritmos do Delphi usaram algumas fontes de caráter no mínimo duvidoso para treinar a IA, como as subseções “Am I the Asshole?”, “Confessions” e “Dear Abby” do Reddit.
“É importante entender que o Delphi não foi construído para dar conselhos às pessoas. Ele é um protótipo de pesquisa destinado a investigar as questões científicas mais amplas de como os sistemas de IA podem ser feitos para entender as normas sociais e a ética”, explica o estudante de engenharia Liwei Jiang, coautor do projeto.
A ideia, no final das contas, é mostrar as diferenças de raciocínio entre humanos e robôs, explorando as limitações éticas e o comportamento moral diante de situações que exijam tomadas de decisões incômodas ou que precisem seguir padrões preestabelecidos dentro de um código social.
“O Delphi está sujeito aos preconceitos de nosso tempo. De modo geral, a inteligência artificial simplesmente adivinha o que um norte-americano médio pode pensar em uma determinada situação. Afinal, o sistema não aprendeu a julgar sozinho. Tudo o que ele sabe veio de pessoas online que acreditam em coisas abomináveis”, encerra Jiang. Futurism