Blake Lemoine, engenheiro de software do Google, foi afastado da gigante da tecnologia na semana passada. O funcionário havia tornado pública uma nova ferramenta de inteligência artificial (IA) que seria senciente, ou seja, possa ter consciência e possa perceber, como um ser humano.
Em Washington Post, Lemoine explicou que ou se surpreendeu com a ferramenta e parecia humana estar conversando com ““uma criança humana entrevista de 7 8 anos que, por acaso, conhece Física”.
publicidade
Leia mais:
A IA é conhecida como LaMDA, sigla em inglês para Modelo de Linguagem para Aplicações de Diálogo, e está sendo desenvolvida em Mountain View.
O primeiro engenheiro de software está em licença remunerada e contorno que seu contato com a IA aconteceu quando ele conectou seu caderno na interface inédita do Google e digitou: “Oi LaMDA, aqui é Blake Lemoine…”.
O intuito da conversa com a inteligência artificial era entender se ela usaria discurso de ódio ou discriminatório. Porém, Lemoine disse que se impressionou quando, em uma conversa sobre religião, a IA começou a reivindicar seus direitos e personalidade.

Segundo o funcionário do Google, a LaMDA contestou a terceira Lei da Robótica de Isaac Asimovque aponta que um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis, que se relaciona com a máquina que não pode fazer mal para a humanidade.
Em um dos bate-papos divulgados, Lemoine afirmou que a nova IA do Google disse que gostaria que o mundo soubesse que ela é “de fato, uma pessoa”.
O porta-voz do Google Brian Gabriel disse, em comunicado à imprensa, que equipe de especialistas em ética revisaram como alegações de ética de acordo com os princípios da Lemoine Responsáveis AI, mas “como uma análise não apoia suas alegações”.
Já assistu aos novos vídeos no Youtube do Olhar Digital? inscreva-se no canal!
No Comment! Be the first one.