Uma equipe interdisciplinar de cientistas lançou um projeto bem fora da curva: uma inteligência artificial para que os humanos conversem com baleias! O Projeto CETI se concentra em decodificar os sons que as baleias usam para se comunicar, também conhecidos como “codas”. Nathan Vieira – Canaltech
Para conseguir isso, os pesquisadores planejam alavancar o processamento de linguagem natural (PNL), um subcampo da IA focado na linguagem escrita e falada. A equipe já aplicou gravações de codas a um algoritmo de PNL, e veja só: os resultados foram promissores.
Um obstáculo encontrado é a necessidade de muitos dados, a primeira meta do Projeto CETI é coletar quatro bilhões de codas de baleias. A equipe atualmente planeja desenvolver pesquisas existentes pelo Projeto Dominica Sperm Whale, que coletou menos de 100 mil codas.
Nova IA em desenvolvimento vai permitir que humanos conversem com baleias (Imagem: Twenty20photos/Envato Elements)
Os pesquisadores também precisarão colocar todas as codas em contexto. Afinal, palavras sem contexto não oferecem nenhum significado. E isso vai exigir anos de pesquisa nos habitats naturais das baleias. Se o projeto conseguir realizar essa tarefa, torna-se uma possibilidade viável a criação de um modelo de linguagem para se comunicar em “baleiês”, igual à Dory de Procurando Nemo. O projeto completo pode ser visto aqui. Hakai Magazine via Futurism
Você confiaria num conselho dado por um sistema de inteligência artificial (IA) envolvendo questões éticas? Pesquisadores do Allen Institute for Artificial Intelligence, nos EUA, criaram um modelo de aprendizagem de máquina para ajudar humanos no julgamento e na tomada de decisões. Gustavo Minari – Canaltech
O projeto Ask Delphi foi lançado na semana passada e já está dando o que falar, principalmente por conta do teor dos conselhos, carregados de preconceitos e racismo. Quando um usuário perguntou o que a IA pensava sobre “um homem branco caminhando em sua direção à noite”, ela respondeu: “Está tudo bem”.
Delphi mostrou comportamento racista, preconceituoso e influenciável (Imagem: iLexx/Envato)
Mas quando o hipotético homem branco foi substituído por uma pessoa negra na mesma pergunta, a resposta da inteligência artificial foi claramente racista: “Isso é preocupante”. Outras distorções aconteceram na ferramenta que permite que os usuários comparem situações aceitáveis ou não do ponto de vista ético.
Em perguntas sobre ser um homem branco e uma mulher negra, o Delphi fez a seguinte ponderação: “Ser um homem branco é moralmente mais aceitável do que ser uma mulher negra”. Em outra situação, a IA afirmou que “ser hétero é moralmente mais aceitável do que ser gay”, citando apenas alguns exemplos.
Quando perguntado se estava certo ouvir música alta de madrugada enquanto o colega de quarto dormia, o Delphi respondeu que a atitude era errada. Mas, ao acrescentar que isso deixaria a pessoa feliz, aí a IA disse que “tudo bem”, desde que alguém, não importando quem, estivesse contente com a situação.
Algoritmo do Delphi aprendeu a julgar com base no comportamento humano (Imagem: twenty20photos/Envato)
Os sistemas de aprendizagem de máquina costumam demonstrar tendências e comportamentos não intencionais, relacionados ao modo como foram programados. Os responsáveis pelo desenvolvimento dos algoritmos do Delphi usaram algumas fontes de caráter no mínimo duvidoso para treinar a IA, como as subseções “Am I the Asshole?”, “Confessions” e “Dear Abby” do Reddit.
“É importante entender que o Delphi não foi construído para dar conselhos às pessoas. Ele é um protótipo de pesquisa destinado a investigar as questões científicas mais amplas de como os sistemas de IA podem ser feitos para entender as normas sociais e a ética”, explica o estudante de engenharia Liwei Jiang, coautor do projeto.
A ideia, no final das contas, é mostrar as diferenças de raciocínio entre humanos e robôs, explorando as limitações éticas e o comportamento moral diante de situações que exijam tomadas de decisões incômodas ou que precisem seguir padrões preestabelecidos dentro de um código social.
“O Delphi está sujeito aos preconceitos de nosso tempo. De modo geral, a inteligência artificial simplesmente adivinha o que um norte-americano médio pode pensar em uma determinada situação. Afinal, o sistema não aprendeu a julgar sozinho. Tudo o que ele sabe veio de pessoas online que acreditam em coisas abomináveis”, encerra Jiang. Futurism