Chamadas de biobots, esses organismos consistem em uma terceira forma de vida, já que não são, especificamente, robôs e nem seres vivos. É uma mistura dos dois, feita de células da pele e do coração de sapos, e programada por computador. UM CANCERIANO SEM LAR.
A invenção dessas “máquinas viventes”, elaboradas com células animais e capazes de realizar pequenas tarefas, é de quatro cientistas norte-americanos, composto por dois biólogos, Michael Levin e Douglas Blackiston, e dois especialistas do campo da robótica, Josh Bongard e Sam Kriegman.
Em artigo publicado na revista PNAS, o grupo de pesquisadores descreve a criação desse tipo de biobots, os xenobots (as células são da espécie de sapo Xenopus laevis) — com a ajuda de algoritmos evolutivos.
Os pesquisadores utilizaram como matéria-prima dois tipos de células de rã-de-unhas-africana: as células de seu coração (contráteis) e as de sua pele (mais passivas). O principal resultado é uma máquina biológica de meio milímetro, com poucas centenas de células, capaz de se mover em uma direção determinada pelos cientistas. El País
“A grande pergunta aqui é: como as células cooperam para construir corpos complexos e funcionais? Como sabem o que precisam construir? Que sinais trocam entre elas?”, reflete Levin, da Universidade Tufts, perto de Boston. UM CANCERIANO SEM LAR.
“Se conseguirmos automatizar a fabricação dos modelos por computador, poderemos conceber enormes enxames de biobots. E eles poderiam até mesmo ser capazes de se juntar em tamanhos cada vez maiores. Poderemos ter biomáquinas enormes no futuro”, coloca como hipótese Bongard. Sua equipe já fez simulações de até 270.000 células. Um corpo humano tem 30 trilhões.
Will self-replicating ‘xenobots’ cure diseases, yield new bioweapons, or simply turn the whole world into grey goo? Australasian Science
In 2020, scientists made global headlines by creating “xenobots” – tiny “programmable” living things made of several thousand frog stem cells. Early xenobots survived for up to ten days.
A second wave of xenobots, created in early 2021, showed unexpected new properties. These included self-healing and longer life. They also showed a capacity to cooperate in swarms, for example by massing into groups.
The same team of biology, robotics and computer scientists unveiled a new kind of xenobot. Like previous xenobots, they were created using artificial intelligence to virtually test billions of prototypes, sidestepping the lengthy trial-and-error process in the lab. But the latest xenobots have a crucial difference: this time, they can self-replicate.
But they don’t reproduce in a traditional biological sense. Instead, they fashion the groups of frog cells into the right shape, using their “mouths”. Ironically, the recently extinct Australian gastric-brooding frog uniquely gave birth to babies through its mouth.
The latest advance brings scientists a step closer to creating organisms that can self-replicate indefinitely. Is this as much of a Pandora’s Box as it sounds?
Conceptually, human-designed self-replication is not new. In 1966, the influential mathematician John Von Neumann discussed “self-reproducing automata”.
Famously, Eric Drexler, the US engineer credited with founding the field of “nanotechnology”, referred to the potential of “grey goo” in his 1986 book Engines of Creation. He envisaged nanobots that replicated incessantly and devoured their surroundings, transforming everything into a sludge made of themselves.
In 2002, without the help of AI, an artificial polio virus created from tailor-made DNA sequences became capable of self-replication. Although the synthetic virus was confined to a lab, it was able to infect and kill mice.
It might be natural to have instinctive reservations about xenobot research. One xenobot researcher said there is a “moral imperative” to study these self-replicating systems, yet the research team also recognises legal and ethical concerns with their work.
Centuries ago, English philosopher Francis Bacon raised the idea that some research is too dangerous to do. While we don’t believe that’s the case for current xenobots, it may be so for future developments.
The interdisciplinary nature of these advances, including AI, robotics and biology, makes them hard to regulate. But it is still important to consider potentially dangerous uses.
Although xenobots are not currently made from human embryos or stem cells, it is conceivable they could be. Still, as the researchers say, living matter can behave in unforeseen ways, and these will not necessarily be benign.
A subsidiária da Samsung, STAR Labs, lançou oficialmente seu misterioso projeto “artificial humano”, o Neon, que são avatares digitais com semelhanças humanas animadas por computador, apelidado de “humano artificial” quanto Siri ou o holograma de Tupac. Eles são falíveis e têm emoções, possivelmente até livre-arbítrio e, presumivelmente, eles têm o potencial de morrer. Embora isso não esteja muito claro. Inteligência Artificial
O Neon é um projeto dirigido pelo Star Labs, que é uma startup/incubadora independente financiada pela Samsung. O CEO do Neon e Star Labs é Pranav Mistry, que também é vice-presidente global de pesquisa da Samsung e foi responsável por ajudar a criar gadgets como o Galaxy Gear original, o computador vestível Sixth Sense e muito mais. Sam Rutherford – Gizmodo
Pranav Mistry, pesquisador de interação humano-computador e ex-vice-presidente sênior da Samsung Electronics, explicou que o mecanismo de software Core R3 subjacente ao Neon anima avatares realistas projetados para serem usados em filmes, experiências de realidade aumentada e aplicativos da web e móveis.
Quando o beta for lançado, as empresas poderão licenciar ou assinar o Neon-as-a-service, de acordo com Mistry. Um segundo componente – Spectra, que será responsável pela inteligência, aprendizado, emoções e memória dos avatares do Neon – ainda estava em desenvolvimento.
O Spectra, que é a plataforma de aprendizado do Neon, projetado para ensinar Neons (os humanos artificiais) a aprender novas habilidades, desenvolver emoções, reter memórias e muito mais. É a outra metade do quebra-cabeça. O Core R3 é responsável pela aparência, maneirismos e animações da aparência geral de um Neon, incluindo sua voz. O Spectra é responsável pela personalidade e inteligência de um Neon.
A realidade é para mostrar que um Neon é algo próprio, e não simplesmente uma cópia ou filmagem de um ator ou outra coisa do tipo. Supõe-se que o tempo real significa que um Neon não é apenas uma linha de código pré-programada, com script para executar uma determinada tarefa sem variação, como você obteria de um robô.
Suas semelhanças são modeladas com humanos reais, mas geraram “expressões, diálogos e emoções” recém-geradas. Cada avatar (conhecido individualmente como “NEONs”) pode ser personalizado para tarefas diferentes e é capaz de responder a consultas com latência menor que alguns milissegundos.
Em suma, um Neon é uma inteligência artificial similar à Cortana de Halo, uma forma de vida gerada por computador que pode pensar e aprender por conta própria, controlar seu próprio corpo virtual, ter uma personalidade única e manter seu conjunto de memórias, ou pelo menos esse é o objetivo. Um Neon não possui um corpo físico (além dos componentes do processador e do computador em que o software é executado), então, de certa forma, você pode pensar em um Neon como um cérebro cibernético de Ghost in the Shell também. Mistry descreve Neon como uma maneira de descobrir a “alma da tecnologia”.
Eles podem ser úteis em vários departamentos (Turismo e viagens). Esses seres virtuais podem ser ótimos representantes de clientes em campo. Eles também se apegam a essa coisa de empatia, em comparação com humanos reais que ficam confusos porque o cliente não está certo.
Os avatares de Neon se parecem mais com vídeos do que personagens gerados por computador, e isso é por design – além da mídia, eles se destinam a se tornar “companheiros e amigos” e substituir concierges e recepcionistas em hotéis, lojas, restaurantes e muito mais. Dito isso, eles foram projetados com estritas garantias de privacidade, de modo que os dados privados não são compartilhados sem permissão. Kyle Wiggers – VentureBeat
Esse pessoal do Neon precisará apenas de um cérebro e isso será fornecido por sensores, IA, software empresarial e gigantes da nuvem. Já existem partes suficientes para iterar os seres humanos digitais do Neon para os negócios.
NEON, our first artificial human is here. NEON is a computationally created virtual being that looks and behaves like a real human, with the ability to show emotions and intelligence.
Frank, Natasha, Hana. Not ‘Hey NEON.’ Not an AI assistant. Not an interface to the Internet. Not a music player. Simply, a friend. Friends, collaborators, and companions. They can connect and learn more about us, gain new skills, and evolve.
Inspired by the rhythmic complexities of nature and extensively trained with how humans look, behave and interact. Life moves in realtime. So does CORE R3, with latencies of less than a few microseconds.
Se você analisar ainda mais em detalhes, os três Rs no Core R3 representam, em inglês, realidade, tempo real e capacidade de resposta, cada R representando um princípio importante do que define um Neon.
Os humanos Neon não são robôs ou assistentes por voz como a Siri ou Alexa. Eles são, na verdade, simulações que aparecem em telas e aprendem sobre as pessoas para dar respostas inteligentes e realistas, os avatares não foram projetados como assistentes eletrônicos ativos 24h – eles podem “se cansar” e não estarão às ordens o tempo todo. Saori Almeida – Mundo Conectado
“Não queremos substituir empregos humanos, mas melhorar as interações com o atendimento ao cliente, para que os clientes sintam como se tivessem um amigo junto dos Neons.” Samsung.UM CANCERIANO SEM LAR.
Em novembro de 2018, durante a Conferência Mundial da Internet anual da China, a agência de notícias estatal Xinhua lançou uma versão digital do âncora Qiu Hao – Xin Xiaohao – capaz de ler manchetes 24 horas por dia. O Startup Vue.ai aproveita a IA para gerar imagens da moda da modelo, descobrindo as características das roupas e aprendendo a produzir poses, cores de pele e outros recursos realistas. Separadamente, a IA e o aprendizado de máquina foram usados para produzir vídeos de candidatos políticos como Boris Johnson fazendo discursos que nunca fizeram.
Neon traz à mente o Projeto Milo, uma experiência prototípica de “IA emocional” desenvolvida em 2009 pela Lionhead Studios. Milo apresentava uma estrutura de IA que respondia a palavras faladas, gestos e várias ações predefinidas, com um sistema de geração de procedimentos que atualizava constantemente um dicionário integrado capaz de combinar palavras em conversas com clipes de dublagem.
Milo nunca viu a luz do dia, mas a Samsung, por todas as aparências, parece interessada em comercializar a tecnologia por trás do Neon nos próximos anos.
Da esquerda para a direita, conheça Karen, Cathy e Maya. Foto: Sam Rutherford/Gizmodo
No início, a demonstração foi tranquila, quando Mistry apresentou três Neons cujos avatares foram exibidos em uma fileira de monitores: Karen, uma funcionária de uma companhia aérea; Cathy, uma instrutora de yoga; e Maya, uma estudante.
Mistry introduziu um quarto Neon junto com uma visualização da rede neural do Neon, que é essencialmente uma imagem de seu cérebro. E depois de fazer o Neon falar em inglês, chinês e coreano (que parecia um pouco robótico e menos natural do que você ouviria da Alexa ou do Google Assistente), Mistry tentou demonstrar ainda mais ações. Mas foi aí que a demo pareceu congelar, com o Neon não respondendo adequadamente aos comandos.
Não está claro quanto um Neon pode fazer por conta própria e quanto tempo levará para que a Neon cumpra seu objetivo de criar um humano artificial verdadeiramente independente. O que é realmente real? É estranho, ambicioso e pode ser o começo de uma nova era no desenvolvimento humano. Por enquanto?
O Google entrou no clima da Olimpíada de Tóquio 2020 com o Doodle Champion Island. Dessa vez, a gigante de buscas criou um jogo temático em que o personagem desbrava um mundo cheio de desafios inspirados nas modalidades olímpicas. Lucky é um simpático gatinho que precisa derrotar os sete campeões que dominam a Ilha dos Campeões. Marvin Costa – TechTudo
Welcome to the Doodle Champion Island Games! Over the coming weeks, join calico (c)athlete Lucky as she explores Doodle Champion Island: a world filled with seven sport mini-games, legendary opponents, dozens of daring side quests, and a few new (and old ;)) friends. Her ultimate goal? Defeat each sport Champion to collect all seven sacred scrolls—and complete extra hidden challenges across Champion Island in the purrr-ocess.
Como em toda data especial, o doodle estará presente, com destaque para o que a companhia classifica como o “o maior Doodle interativo de todos os tempos”. Criado pelo estúdio de animação japonesa STUDIO 4°C, ele permite entrar em equipes para disputar competições de skate, rugby, escalada e outros esportes — tudo ao melhor estilo Califórnia Games e com visual 16 bits.
O chamado Doodle Champion Island ainda terá missões paralelas e dezenas de surpresas, conforme explica o Google. A promessa é de ser um jogo de verdade, com muitas opções, para rodar direto no navegador.
Pesquisadores da Universidade Estadual de Ohio, nos EUA, desenvolveram um novo sistema de computação que imita a maneira como o cérebro humano funciona, com uma capacidade de processamento de informações até um milhão de vezes mais rápida, exigindo uma entrada de dados muito menor. Gustavo Minari – Canaltech
Eles aprimoraram uma tecnologia conhecida como computação de reservatórios, desenvolvida no início dos anos 2000 e que utiliza um algoritmo de aprendizagem de máquina para resolver problemas de computação mais complexos, como previsões de evolução em sistemas dinâmicos que mudam drasticamente com o tempo.
Sistemas dinâmicos, como o clima, são difíceis de prever porque apenas uma pequena mudança em uma condição pode ter efeitos massivos no futuro, disse o professor de física Daniel Gauthier, autor principal do estudo.
Os co-autores do estudo foram Erik Bollt, professor de engenharia elétrica e de computação na Clarkson University; Aaron Griffith, que recebeu seu Ph.D. em física no estado de Ohio; e Wendson Barbosa, pesquisador de pós-doutorado em física no estado de Ohio.
Esses novos dispositivos de computação utilizam uma rede neural para “aprender” sistemas dinâmicos, fornecendo previsões mais precisas sobre comportamentos futuros. Os cientistas alimentam esses reservatórios de neurônios artificiais conectados aleatoriamente com informações necessárias para completar determinadas tarefas.
Warmup são dados de treinamento que precisam ser adicionados como entrada no computador do reservatório para prepará-lo para sua tarefa real. Engenharia.org
O novo conceito foi testado em um sistema de previsão meteorológica, utilizando um computador desktop comum. Nesse primeiro experimento, a computação de reservatórios foi de 33 a 163 vezes mais rápida que modelos atuais que desempenham funções de simulação parecidas.
Em tarefas que exigiam uma precisão maior do sistema de previsões, a nova tecnologia foi cerca de 1 milhão de vezes mais veloz, alcançando a mesma exatidão com o equivalente a apenas 28 neurônios artificiais, ao contrário dos mais de 4 mil necessários para o funcionamento da geração atual.
“Uma razão importante para a aceleração é que o cérebro artificial simplificado por trás desta próxima geração de computação de reservatórios precisa de muito menos treinamento ou dados adicionais em comparação com os sistemas atuais para produzir os mesmos resultados de forma muito mais eficiente e rápida”, encerra Gauthier. Ohio State University
O estudo foi publicado na revista Nature Communications.
Um problema é que o reservatório de neurônios artificiais é uma “caixa preta”, disse Gauthier, e os cientistas não sabem exatamente o que se passa dentro dele – eles apenas sabem que funciona.
Eles testaram seu conceito em uma tarefa de previsão envolvendo um sistema meteorológico desenvolvido por Edward Lorenz, cujo trabalho levou à nossa compreensão do efeito borboleta.
Ele e seus colegas planejam estender este trabalho para resolver problemas de computação ainda mais difíceis, como a previsão de dinâmica de fluidos.
No caso de Jogador Nº 1, o nerd padrão é Wade Watts (Tye Sheridan) que com seu avatar Parzival descobre a primeira chave para um super easter egg deixado pelo trilionário James Halliday (Mark Rylance) em sua grande criação: o OASIS. Esse sistema é um universo de realidade virtual que já não é apenas um jogo no ano de 2044, pois é onde a maioria da população passa a maior parte do tempo e realiza o grosso das atividades econômicas do mundo. MARCOS VIEIRA – Infinitividades
O espectador está vendo não apenas uma cena de ação intensa e alucinante, mas sim uma cena que, além dessas características, conta com a presença de itens icônicos de filmes e desenhos que a maioria das pessoas cresceu assistindo. Mais que isso, esse itens são usados de forma fiel ao material fonte. Em outras palavras, mais do que uma série de referências soltas, é como se estivéssemos assistindo a um grande mashup da cultura pop dos últimos 50 ou 60 anos. UM CANCERIANO SEM LAR.
“Algumas pessoas podem ler Guerra e Paz e sair achando que se trata apenas de uma simples aventura. Outras podem ler os ingredientes em uma embalagem de chiclete e desvendar os segredos do Universo.” James Donovan Halliday
Em suma, Jogador Nº 1 foi feito sob medida para explodir a cabeça dos nerds de plantão. Steven Spielberg mostra que ainda tem seu “toque mágico” ao transformar um roteiro medíocre em uma experiência cinematográfica altamente satisfatória. O diretor usa com maestria centenas de referências à cultura pop para montar um greatest hits tanto de sua cinematografia quanto da infância e juventude das muitas pessoas que cresceram nas salas de cinema ou na frente da TV.
Em função disso, a ‘Corridor Digital’, estúdio de produção de Los Angeles especializado em efeitos visuais, fez uma montagem impressionante simulando a ação de um robô-soldado, desenvolvido com inteligência artificial do Pentágono, em um cenário de batalha fictício com soldados humanos.
Apesar de se tratar de uma brincadeira cheia de efeitos especiais, nos dá a entender que, em breve, a intervenção humana em conflitos de guerra se tornará completamente desnecessária. Matheus Luque
Um novo vídeo do Bosstown Dynamics criado pelo canal de efeitos especiais Corridor se tornou viral. O grupo já havia criado um vídeo no mesmo estilo com robôs da Boston e na época já havia surpreendido pelo seu realismo.
No mais recente, um robô faz vários disparos com armas curta e longa, e sempre acerta os alvos, mesmo sendo ‘atacado’ pelos seus criadores. O vídeo já tem mais de quatro milhões de visualizações até agora.
Muitas pessoas estão sendo enganadas pelo vídeo que é muito bem-feito, fazendo todos acreditarem que se tratam de imagens reais. E não é difícil de entender o motivo. Os especialistas em editoração gráfica responsáveis pelo vídeo afirmam o mundo avança em processos de tecnologias inovadoras.
“É uma revolução contínua que começou há cerca de 500 anos. Podemos chamar esse avanço de revolução do computador, revolução digital, era da informação ou começo da singularidade”, dizem. O vídeo do Bosstown Dynamics não é real.
Não possui imagens de um pistoleiro robô real. É feito com a inteligente tecnologia CGI, onde os movimentos de um ator humano são usados para criar um vídeo animado. É muito bem feito e pode enganar quase qualquer um. Centenas ou talvez até milhares de comentários mostram-se surpresos com a realidade produzida no vídeo.
“É assustador”, dizem.
É assustador, talvez não tanto para o robô do tipo Terminator, mas para a capacidade da moderna tecnologia digital de criar imagens falsas que não se distinguem facilmente da realidade. A Bosstown Dynamics não dispõe de grandes orçamentos, mas possui computadores, habilidade, um orçamento modesto e muito talento. Para seu crédito, eles mostram como eles criaram o vídeo usando CGI. Mais de quatro milhões de pessoas assistiram ao falso vídeo de robô militar até agora e poucos sabem que ele é falso.
Deepfake é uma técnica que utiliza recursos de inteligência artificial para substituir rostos em vídeos e imagens com o propósito de chegar o mais próximo possível da realidade. O termo é uma mistura das expressões deep learning e fake e significa o emprego da IA para criar uma situação falsa. Ramalho Lima – tecmundo
O deepfake é uma tecnologia que usa inteligência artificial (IA) para criar vídeos falsos, mas realistas, de pessoas fazendo coisas que elas nunca fizeram na vida real. A técnica que permite fazer as montagens de vídeo já gerou desde conteúdos pornográficos com celebridades até discursos fictícios de políticos influentes. Isabela Cabral – TechTudo
Grace Windheim já tinha ouvido falar de deepfakes antes, descobrir que era super fácil e totalmente gratuito e em um dia do ano de 2020, ela criou um tutorial passo a passo no YouTube para guiar outras pessoas ao longo do processo. “Fazer uma dessas deepfakes e sobrepor áudio não é tão complicado quanto você pode pensar”, diz ela no vídeo, publicado em 4 de agosto. MIT Technology Review
Windheim, recém-formada, trabalha como criadora de conteúdo na startup Kapwing, com sede em São Francisco. A empresa, que começou como fabricante de memes, oferece um pacote baseado em navegador gratuito de ferramentas de software de edição de vídeo.
O que era caro e extremamente trabalhoso se tornou simples e acessível a princípio para especialistas da área e posteriormente para o grande público por meio de aplicativos móveis e plataformas online. Hoje, é possível criar manipulações realistas usando computador e internet em casa.
No início de 2019, uma das ferramentas de deepfake mais conhecidas era o ZAO, um app chinês criado para iOS que permitia capturar uma selfie e embutir o rosto no corpo de um personagem de filme ou série em segundos. Por questões de segurança, o programa limitava as cenas em que os usuários podiam editar vídeos falsos, uma vez que a técnica poderia ser usada para a criação de fake news.
Para quem precisa de algo mais sofisticado, o FSGAN reproduz não apenas os trejeitos do rosto da fonte mas também sua voz. A ferramenta foi criada por Yuval Nirkin e está disponível na Open University of Israel. Para que funcione, no entanto, é necessário um hardware de altíssimo desempenho que é praticamente impossível de ser adquirido por usuários finais.
De acordo com John Vilasenor, pesquisador do Centro de Inovações Tecnológicas Brookings Institution, organização que pesquisa o tema, a popularidade da técnica tem chamado atenção de autoridades para a necessidade da fiscalização e regulamentação da tecnologia.
O termo deepfake apareceu em dezembro de 2017, quando um usuário do Reddit com esse nome começou a postar vídeos de sexo falsos com famosas. Com softwares de deep learning, ele aplicava os rostos que queria a clipes já existentes. Os casos mais populares foram os das atrizes Gal Gadot e Emma Watson. A expressão deepfake logo passou a ser usada para indicar uma variedade de vídeos editados com machine learning e outras capacidades da IA.
Efeitos especiais de computador que criam rostos e cenas no audiovisual não são nenhuma novidade; o cinema faz isso há muitos anos. A grande virada do chamado deepfake está na facilidade com que ele pode ser produzido. Comparado ao que costumava ser necessário, o método atual é simples e barato. Qualquer um com acesso a algoritmos e conhecimentos de deep learning, um bom processador gráfico e um amplo acervo de imagens pode criar um vídeo falso convincente.
A técnica é baseada em deep learning, uma subclassificação de IA para definir algoritmos de podem reconhecer padrões com base em um banco de dados. Isso significa que, para criar um vídeo de deepfake de determinada personalidade, o sistema precisa ser alimentado com fotos e vídeos em que ela aparece. Quanto mais material houver, maiores serão as chances de se obter um bom resultado. Treinada com base no conteúdo fornecido, a IA aprende como a pessoa se comporta, passando a reconhecer padrões de movimento, trações do rosto, da voz e de outras características.
São utilizados softwares baseados em bibliotecas de código aberto voltadas ao aprendizado de máquina. Segundo entrevista ao site Motherboard, o usuário do Reddit usou TensorFlow aliado ao Keras, uma API de deep learning escrita em linguagem Python. O programador fornece centenas e até milhares de fotos e vídeos das pessoas envolvidas, que são automaticamente processadas por uma rede neural. É como um treinamento, no qual o computador aprende como é determinado rosto, como ele se mexe, como ele reage a luz e sombras.
O deepfake é muito recente e sua definição é fluida. O fenômeno se confunde na discussão pública com tecnologias com funções similares ou complementares. Há, por exemplo, um programa anunciado pela Adobe que consegue criar falas com a voz de uma pessoa a partir de amostras reais. Existem ainda experimentos de reencenação facial, com a recriação das mesmas falas e expressões de uma pessoa no rosto de outra, e de sincronização labial, vídeos de alguém falando gerado com áudio e imagens de seu rosto.
Agora que os deepfakes fazem parte da nossa realidade, é essencial aprender a identificá-los. Pode ser que cheguemos a um ponto em que isso seja impossível ou muito difícil, mas hoje ainda existem alguns detalhes que ajudam a revelar um vídeo falso. Preste atenção nos movimentos da boca, se eles correspondem bem ao que está sendo dito. Fique atento também para a própria voz: a entonação e o tom soam normais?
Verifique os olhos para notar se eles estão piscando. Na maioria das vezes, os algoritmos não reproduzem bem esse aspecto nem a respiração da pessoa. Veja ainda se ela se mexe de forma natural como um todo. As recriações podem ter dificuldade em encaixar todas as partes do rosto e do resto do corpo e duplicar certos movimentos orgânicos. E se a pessoa no vídeo em questão é alguém que você não conhece bem, procure outros clipes, de preferência em que haja certeza de veracidade, para comparar.
A Sociedade 5.0 refere-se a uma nova sociedade criativa, aportada pela inovação e pela transformação digital, representando uma nova visão com o objetivo de resolver questões sociais, utilizando as evoluções tecnológicas. Esta sociedade sucede as passadas: a sociedade de caça (Sociedade 1.0), sociedade agrícola (Sociedade 2.0), sociedade industrial (Sociedade 3.0) e sociedade da informação e do conhecimento (Sociedade 4.0).
O termo “Society 5.0” surgiu no Japão em 2016, pelo Gabinete Japonês na 5th Science and Technology Basic Plan. Ela conecta todas as pessoas e coisas através da Internet das Coisas (IoT – Internet of Things), compartilha vários conhecimentos e informações e cria novo valor nunca antes existente. Além disto, traz uma nova perspectiva de vida humana, aprimorando a produtividade e a qualidade de vida, com desenvolvimento pautado por transformações acopladas pela inovação científica e tecnológica. Por meio da inteligência artificial (IA), as informações e conhecimentos necessários são fornecidos, e tecnologias como robôs, drones, transportes públicos automatizados, criptomoedas, Blockchain, mobilidade e veículos autônomos, vencerão questões que hoje estão nos bloqueando.
A Sociedade 5.0 é realizada por um sistema que combina espaço cibernético (espaço virtual) e espaço físico (espaço real), potencialmente conectados. Uma enorme quantidade de dados dos sensores do espaço físico é acumulada no ciberespaço. No ambiente do ciberespaço, a IA analisa esses dados e os resultados são devolvidos aos seres humanos no espaço físico de várias maneiras.
O ambiente ao redor do Japão e do mundo está em um período de grandes mudanças. À medida que o desenvolvimento econômico avança, a vida das pessoas se torna mais conveniente e rica, cresce a demanda por energia e alimentos, e aumenta a expectativa de vida e o envelhecimento das pessoas. Além disso, a globalização da economia progride, a concorrência internacional se intensifica e também há aspectos como concentração de riqueza e desigualdade entre regiões. Percebe como as questões sociais estão se tornando mais complexas? Medidas como a promoção da industrialização sustentável, realocação de riqueza e correção de disparidades entre regiões estão se tornando imprescindíveis. No entanto, no atual sistema social, é difícil alcançar o desenvolvimento econômico e a resolução de questões sociais. Acordo Coletivo
Nesse vídeo você ver que quando misturamos aprendizado por reforço com redes neurais, o resultado é surpreendente. A técnica utilizada nesse vídeo foi inicialmente introduzida pela Deep Mind, ao criar algoritmos genéricos que dominavam todos os jogos do Atari. O diferencial é fazer a inteligência artificial aprender apenas observando os pixels da tela, sem informações extras sobre a dinâmica do jogo.
Quando o machine learning é utilizado dentro das técnicas de aprendizado por reforço, é possível generalizar o aprendizado para os mais diversos estados.