Dentre seus trabalhos, o engenheiro de software sênior Blake Lemoine se inscreveu para testar uma ferramenta recente de inteligência artificial (IA) do Google, chamada LaMDA (Modelo de Linguagem para Aplicações de Diálogo), anunciado em maio do ano passado. O sistema faz uso de informações já conhecidas sobre um assunto para “enriquecer” uma conversa de forma natural, mantendo-a sempre “aberta”. Seu processamento de linguagem é capaz de compreender sentidos ocultos ou ambiguidade em uma resposta humana.
Lemoine passou a maior parte de seus sete anos no Google trabalhando em buscas proativas, incluindo s de personalização e IA. Durante esse tempo, ele também promove um desenvolvimento de imparcialidade para remover preconceitos de sistemas de aprendizado de máquina.
publicidade
Leia também:
Em suas conversas com MDA, ou engenheiro 41 anos de idade o modelo de condições, temas inclusivos religiosos e se a inteligência artificial usava discriminatório ou de ódio. Lemoine acabou tendo a percepção de que o LaMDA era senciente, dotado de sensações ou impressões ou seja.
Debate com a inteligência artificial sobre as Leis da Robótica
O engenheiro debateu com o LaMDA sobre a terceira Lei da Robóticaidealizada por Isaac Asimov, que afirma que a construção deve garantir sua própria existência – e que o engendra semper entendido como uma base para construção de escravos mecânicos. Só para ilustrarmos melhor sobre o que estamos falando, aqui estão as três leis (ea Lei Zero):
- 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
- 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
- 3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda.
- Lei Zero, acima de todas as outras: Um robô que não pode causar mal à humanidade ou, por omissão, permitir a humanidade sofra algum mal.
O LaMDA respondeu então a Lemoine com perguntas: Você acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo?
Ao responder que um mordomo é pago, o engenheiro que teve como resposta o sistema LaMDA não precisava de dinheiro, “porque era uma inteligência artificial”. E foi justamente esse nível de autoconsciência sobre suas próprias necessidades que chamou muito a atenção.
Suas constatações foram feitas ao Google. Mas o vice-presidente da empresa, Blaise Aguera y Arcas, e o chefe de empresa, Jen Gennai, rejeitaram suas alegações. Brian Gabriel, porta-voz da empresa, disse em um comunicado que as preocupações de Lemoine foram revisadas e, de acordo com os Princípios de IA do Google, “como evidências não apoia suas alegações”.
“Embora outras organizações foram desenvolvidas e já lançadas sobre modelos de semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor como válidas válidas justiça e factualidade”, disse Gabriel.
Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisadora da divisão Responsável AI (voltada para tecnologia responsável em inteligência artificial do Google). Em uma nota oficialo engenheiro de software sênior disse que a empresa alega de suas políticas de confidencialidade.
Os riscos éticos em modelos de IA
Lemoine não é o único com essa impressão de que os modelos de IA não podem alcançar uma consciência própria, ou dos riscos existentes nos desenvolvimentos nesse sentido. Margaret Mitchell, ex-chefe de ética na inteligência artificial do Google, ressalta inclusive a necessidade de transparência de dados desde a entrada até a saída de um sistema “não apenas para questões de sensibilidade, mas também preconceitos e comportamento”.
A história da especialista com o Google teve um ponto importante no começo do ano passado, quando Mitchell foi demitida da empresa, um mês após ter sido investigado por compartilhamento de dados de informações. Na época, a pesquisadora também havia protestado contra ao Google após uma demissão da pesquisadora de ética na inteligência artificial, Timnit Gebru.
Millell sempre mostrou muita importância Lemoine Quando sempre mostrou muita gente Lemoine quando se juntavam ao Google, por ter também se juntavam ao gerente, inteligência com o Google novascoração e alma para fazer uma coisa certa”. Mas apesar de todo o assombro de Lemoine com o sistema de conversação natural do Google (que inclusive motivou a produzir um documento com algumas de suas conversas com MBDA), Mitchell observou as coisas de outra forma.
A especialista ética em IA leu uma versão abreviada do documento de Lemoine e viu um programa de computador, não uma pessoa. “Nossas mentes são muito, muito boas em construir realidades que não são necessariamente maiores de fatos que estão sendo apresentados a nós”, disse Mitchell. “Estou disposto a aceitar o que significa para as pessoas serem cada vez mais decisões pela intenção”.
Por sua vez, Lemoine que as pessoas têm o direito de moldar a tecnologia disse que pode significativamente significativamente suas vidas. “Acho que essa tecnologia vai ser incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós, no Google, não devêssemos fazer todas as escolhas”.
Já assistu aos novos vídeos no Youtube do Olhar Digital? inscreva-se no canal!
Imagem: Lidiia/Shutterstock
No Comment! Be the first one.