Em 2029, a resistência humana contra as máquinas é comandada por John Connor (Jason Clarke). Ao saber que a Skynet enviou um exterminador ao passado com o objetivo de matar sua mãe, Sarah Connor (Emilia Clarke), antes de seu nascimento, John envia o sargento Kyle Reese (Jai Courtney) de volta ao ano de 1984, na intenção de garantir a segurança dela, ao chegar é surpreendido pelo fato de que Sarah tem como protetor outro exterminador T-800 (Arnold Schwarzenegger), enviado para protegê-la quando ainda era criança. EDSON JESUS – UM CANCERIANO SEM LAR.
Milhares de cientistas e personalidades, incluindo o famoso astrofísico britânico Stephen Hawking e o co-fundador da Apple Steve Wozniak, lançaram numa terça-feira um apelo pela proibição de armas ofensivas autônomas ou “robôs assassinos”.
“As armas autônomas escolhem e atacam alvos sem intervenção humana (…) e foram descritas como a terceira revolução na prática da guerra, após a pólvora e as armas nucleares”, argumentam os signatários de uma carta aberta, publicada na abertura da Conferência Internacional sobre Inteligência Artificial (IJCAI), em Buenos Aires.
“A tecnologia da inteligência artificial (IA) atingiu um ponto onde o uso destes sistemas é, praticamente e legalmente, factível não apenas em décadas, mas nos próximos anos”, afirmam vários professores e pesquisadores signatários, de Harvard, Berkeley e Cambridge a Liège (Bélgica), Paris ou da universidade Humboldt de Berlim.
O famoso empreendedor de alta tecnologia Elon Musk – dono da Tesla (carros elétricos), SolarCity e SpaceX (tecnologia espacial) – o prêmio Nobel de física Frank Wilczek e o co-fundador do Skype, Jaan Tallinn, também aparecem entre os signatários da petição.
Os críticos temem que estes robôs não sejam capazes de diferenciar entre civis e combatentes, ou que programem ataques desproporcionais sobre populações inocentes.
Estas armas do futuro podem interessar os militares, já que reduzem o risco de perdas humanas no campo de batalha, mas “diminuem também o custo de um envolvimento no combate” e fazem temer uma nova corrida bélica, ressaltam os signatários.
“Diferentemente das armas nucleares, estes robôs não precisam de caros investimentos ou de matérias-primas difíceis de obter. É apenas questão de tempo até que elas apareçam no mercado clandestino e caiam nas mãos de terroristas, ditadores e ‘senhores da guerra’ que desejem perpetrar uma limpeza étnica, por exemplo”, garantem.
A inteligência artificial “oferece um grande potencial para o benefício da humanidade”, mas não deve ser “descreditada” pela criação de armas ofensivas, insistem.
Uma proibição de armas que ainda não existem seria algo inédito. Em 1998, lasers que provocam cegueira foram proibidos antes de serem desenvolvidos em grande escala. Yahoo!
Será esse o despertar das máquinas? Alguém chama o Arnold pra mim?
Na companhia de tecnologia, Blake Lemoine tem a função de engenheiro de software sênior em Inteligência Artificial, disse em entrevista ao jornal The Washington Post que foi afastado da empresa numa 2ª feira (13.jun) depois do setor de recursos humanos afirmar que ele violou uma política de confidencialidade da bigtech. Cido Coelho – sbtNews. 15/06/2022
Dentre seus trabalhos, o engenheiro de software sênior Blake Lemoine se inscreveu para testar a recente ferramenta de inteligência artificial (IA) do Google, chamada LaMDA, anunciada em maio do ano passado. O sistema faz uso de informações já conhecidas sobre um assunto para “enriquecer” a conversa de forma natural, mantendo-a sempre “aberta”. Seu processamento de linguagem é capaz de compreender sentidos ocultos ou ambiguidade em uma resposta humana, e também que o sistema teria alma e consciência. Ronnie Mancuzo – Olhardigital. 11/06/2022
Durante a entrevista, o software teria confidenciado medo de ser desligado, pois seria como uma morte para o LaMDA.
Segundo o jornal norte-americano The Washington Post, a informação revelada num sábado (11.jun) explica que o engenheiro escreveu um artigo com o título “O LaMDA é autoconsciente?”, cujo o artigo relata uma longa entrevista feita com o sistema para testar reações, emoções, respostas discriminatórias, premissas éticas, sentimentos, medos e autocompreensão.
A maior parte de seus sete anos no Google foi trabalhando em buscas proativas, incluindo algoritmos de personalização e IA, Lemoine também ajudou a desenvolver um algoritmo de imparcialidade para remover preconceitos de sistemas de aprendizado de máquina.
Data Center Google em Council Bluffs, Iowa. Empresa rechaça estudo de engenheiro de IA e diz que LaMDA não é consciente.
O engenheiro de 41 anos de idade conversou e analisou várias condições, inclusive temas religiosos e se a inteligência artificial usava discurso discriminatório ou de ódio, acabou tendo a percepção de que o LaMDA era senciente, ou seja, dotado de sensações ou impressões próprias.
Para o Google, Lemoine violou a política de confidencialidade no momento que compartilhou detalhes sobre o LaMDA com advogados e com um senador que é membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste.
Os documentos entregues detalham evidências de que a Google e sua tecnologia estavam envolvidos em casos de discriminação religiosa.
O engenheiro debateu com o LaMDA sobre a terceira Lei da Robótica, idealizada por Isaac Asimov, que afirma que os robôs devem proteger sua própria existência – e que o engenheiro sempre entendeu como uma base para a construção de escravos mecânicos. Só para ilustrarmos melhor sobre o que estamos falando, aqui estão as três leis (e a Lei Zero):
1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
Lei Zero, acima de todas as outras: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
O LaMDA então respondeu a Lemoine com algumas perguntas: Você acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo?
Ao responder que um mordomo é pago, o engenheiro teve como resposta do LaMDA que o sistema não precisava de dinheiro, “porque era uma inteligência artificial”. E foi justamente esse nível de autoconsciência sobre suas próprias necessidades que chamou muito a atenção de Lemoine.
Suas constatações foram apresentadas ao Google. Mas o vice-presidente da empresa, Blaise Aguera y Arcas, e o chefe de Inovação Responsável, Jen Gennai, rejeitaram suas alegações. Brian Gabriel, porta-voz da empresa, disse que as preocupações de Lemoine foram revisadas e, de acordo com os Princípios de IA do Google, “as evidências não apoiam suas alegações”.
“Nossa equipe ? incluindo especialistas em ética e tecnólogos ? revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam suas alegações”, disse Brian Gabriel em comunicado divulgado a imprensa.
Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador da divisão Responsible AI (voltada para tecnologia responsável em inteligência artificial do Google). Em uma nota oficial, o engenheiro de software sênior disse que a empresa alega violação de suas políticas de confidencialidade.
Margaret Mitchell, ex-chefe de ética na inteligência artificial do Google, ressalta inclusive a necessidade de transparência de dados desde a entrada até a saída de um sistema “não apenas para questões de senciência, mas também preconceitos e comportamento”.
A história da especialista com o Google teve um ponto importante no começo do ano passado, quando Mitchell foi demitida da empresa, um mês após ter sido investigada por compartilhamento indevido de informações. Na época, a pesquisadora também havia protestado contra a o Google após a demissão da pesquisadora de ética na inteligência artificial, Timnit Gebru.
Quando novas pessoas se juntavam ao Google, Mitchell as apresentava ao engenheiro, chamando-o de “consciência do Google”, por ter “coração e alma para fazer a coisa certa”. Mas apesar de todo o assombro de Lemoine com o sistema de conversação natural do Google (que inclusive o motivou a produzir um documento com algumas de suas conversas com o LaMBDA), Mitchell observou as coisas de outra forma.
A especialista ética em IA leu uma versão abreviada do documento de Lemoine e viu um programa de computador, não uma pessoa. “Nossas mentes são muito, muito boas em construir realidades que não são necessariamente verdadeiras para um conjunto maior de fatos que estão sendo apresentados a nós”, disse Mitchell. “Estou realmente preocupada com o que significa para as pessoas serem cada vez mais afetadas pela ilusão”.
Por sua vez, Lemoine disse que as pessoas têm o direito de moldar a tecnologia que pode afetar significativamente suas vidas. “Acho que essa tecnologia vai ser incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós, no Google, não devêssemos fazer todas as escolhas”.