Engenheiro do Google diz que inteligência artificial ESTÁ VIVA E CONSCIENTE e é demitido! – Carol Capel
Será esse o despertar das máquinas? Alguém chama o Arnold pra mim?
Na companhia de tecnologia, Blake Lemoine tem a função de engenheiro de software sênior em Inteligência Artificial, disse em entrevista ao jornal The Washington Post que foi afastado da empresa numa 2ª feira (13.jun) depois do setor de recursos humanos afirmar que ele violou uma política de confidencialidade da bigtech. Cido Coelho – sbtNews. 15/06/2022
Dentre seus trabalhos, o engenheiro de software sênior Blake Lemoine se inscreveu para testar a recente ferramenta de inteligência artificial (IA) do Google, chamada LaMDA, anunciada em maio do ano passado. O sistema faz uso de informações já conhecidas sobre um assunto para “enriquecer” a conversa de forma natural, mantendo-a sempre “aberta”. Seu processamento de linguagem é capaz de compreender sentidos ocultos ou ambiguidade em uma resposta humana, e também que o sistema teria alma e consciência. Ronnie Mancuzo – Olhardigital. 11/06/2022
Durante a entrevista, o software teria confidenciado medo de ser desligado, pois seria como uma morte para o LaMDA.
Segundo o jornal norte-americano The Washington Post, a informação revelada num sábado (11.jun) explica que o engenheiro escreveu um artigo com o título “O LaMDA é autoconsciente?”, cujo o artigo relata uma longa entrevista feita com o sistema para testar reações, emoções, respostas discriminatórias, premissas éticas, sentimentos, medos e autocompreensão.
A maior parte de seus sete anos no Google foi trabalhando em buscas proativas, incluindo algoritmos de personalização e IA, Lemoine também ajudou a desenvolver um algoritmo de imparcialidade para remover preconceitos de sistemas de aprendizado de máquina.
O engenheiro de 41 anos de idade conversou e analisou várias condições, inclusive temas religiosos e se a inteligência artificial usava discurso discriminatório ou de ódio, acabou tendo a percepção de que o LaMDA era senciente, ou seja, dotado de sensações ou impressões próprias.
Para o Google, Lemoine violou a política de confidencialidade no momento que compartilhou detalhes sobre o LaMDA com advogados e com um senador que é membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste.
Os documentos entregues detalham evidências de que a Google e sua tecnologia estavam envolvidos em casos de discriminação religiosa.
O engenheiro debateu com o LaMDA sobre a terceira Lei da Robótica, idealizada por Isaac Asimov, que afirma que os robôs devem proteger sua própria existência – e que o engenheiro sempre entendeu como uma base para a construção de escravos mecânicos. Só para ilustrarmos melhor sobre o que estamos falando, aqui estão as três leis (e a Lei Zero):
- 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
- 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
- 3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
- Lei Zero, acima de todas as outras: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
O LaMDA então respondeu a Lemoine com algumas perguntas: Você acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo?
Ao responder que um mordomo é pago, o engenheiro teve como resposta do LaMDA que o sistema não precisava de dinheiro, “porque era uma inteligência artificial”. E foi justamente esse nível de autoconsciência sobre suas próprias necessidades que chamou muito a atenção de Lemoine.
Suas constatações foram apresentadas ao Google. Mas o vice-presidente da empresa, Blaise Aguera y Arcas, e o chefe de Inovação Responsável, Jen Gennai, rejeitaram suas alegações. Brian Gabriel, porta-voz da empresa, disse que as preocupações de Lemoine foram revisadas e, de acordo com os Princípios de IA do Google, “as evidências não apoiam suas alegações”.
“Nossa equipe ? incluindo especialistas em ética e tecnólogos ? revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam suas alegações”, disse Brian Gabriel em comunicado divulgado a imprensa.
Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador da divisão Responsible AI (voltada para tecnologia responsável em inteligência artificial do Google). Em uma nota oficial, o engenheiro de software sênior disse que a empresa alega violação de suas políticas de confidencialidade.
Margaret Mitchell, ex-chefe de ética na inteligência artificial do Google, ressalta inclusive a necessidade de transparência de dados desde a entrada até a saída de um sistema “não apenas para questões de senciência, mas também preconceitos e comportamento”.
A história da especialista com o Google teve um ponto importante no começo do ano passado, quando Mitchell foi demitida da empresa, um mês após ter sido investigada por compartilhamento indevido de informações. Na época, a pesquisadora também havia protestado contra a o Google após a demissão da pesquisadora de ética na inteligência artificial, Timnit Gebru.
Quando novas pessoas se juntavam ao Google, Mitchell as apresentava ao engenheiro, chamando-o de “consciência do Google”, por ter “coração e alma para fazer a coisa certa”. Mas apesar de todo o assombro de Lemoine com o sistema de conversação natural do Google (que inclusive o motivou a produzir um documento com algumas de suas conversas com o LaMBDA), Mitchell observou as coisas de outra forma.

A especialista ética em IA leu uma versão abreviada do documento de Lemoine e viu um programa de computador, não uma pessoa. “Nossas mentes são muito, muito boas em construir realidades que não são necessariamente verdadeiras para um conjunto maior de fatos que estão sendo apresentados a nós”, disse Mitchell. “Estou realmente preocupada com o que significa para as pessoas serem cada vez mais afetadas pela ilusão”.
Por sua vez, Lemoine disse que as pessoas têm o direito de moldar a tecnologia que pode afetar significativamente suas vidas. “Acho que essa tecnologia vai ser incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós, no Google, não devêssemos fazer todas as escolhas”.
Others AIs: Influenciadores digitais que não existem, AUTOMATA, Comunidade se vinga de hacker que roubou mais de 100 investidores de NFT, Pela primeira vez, memes são mais buscados que Jesus no Google, Primeira robô sexual realista?!?
12 comentários