Segundo a primeira lei da Robótica proposta pelo escritor Isaac Asimov, um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. Mas na era da inteligência artificial (IA), especialistas que defendem a formulação e formulam, definem os racistas/ou ousados ​​sexistas.

A premissa vem de um estudo autorado por pesquisa da Universidade Johns Hopkinsem parceria com o Instituto de Tecnologia da Geórgia (Georgia Tech) e a Universidade Washington que revelou o uso de dados com algum tipo de viés para a construção da rede neural na robótica pode com que estereótipos de desenvolvimento em tipo de desenvolvimento sejam mais utilizados .

publicidade

Leia também

A construção de sistemas de sistemas de forma intencional em inteligência artificial pode não ter concebido nenhum tipo de concepção racista, a construção de sexistas pode não ter nenhuma forma de concepção artificial.
A concepção de sistemas de sistemas de concepção e concepção de sistemas de concepção artificial (A imagem de construção artificial pode não ter pensado em nenhum tipo de concepção racista, a imagem artificial pode não ter pensado em nenhum tipo de concepção racista).

“O neur pode aprender”, disse estereótipos nocivos por meio de modelos falhos de redes neurais, Andrew Hundt-autor do estudo e pesquisador pós-doutorado no Georgia Tech, além de estudante em Ph.D na Johns Hopkins. “sob risco de uma criação de pessoas e organizações que criam produtos sem olhar nem olhar com atenção com problemas”.

Apesar de englobar uma série de dados, o aprendizado da inteligência é relativamente simples de entender: você alimenta um sistema de dados artificial com um alto volume de dados computadorizado. Esse sistema “lê” o padrão de informações até chegar ao ponto em que ele começa a repetir esses padrões por conta própria – tarefas básicas do larpor exemplo.

Os dados podem ser executados com muita precisão e velocidade, trazê-los em sua maioria, como todos os seus acordos, com muita precisão e velocidade, que podem ser executados como pontos que podem ser interpretados de acordo com o padrão.

No estudo de sistemas por meio de bancos de dados, foram contemplados a partir de sistemas de banco de dados disponíveis gratuitamente a partir de redes de banco de dados disponíveis gratuitamente. O problema é que muitos podem trazer informações não verificadas, dessas ou vistas de mundo bem específico – muitos dados podem trazer informações não verificadas A construído com esses padrões, tão logo, começará a repetir-los.

O problema é que essas informações problemáticas não são incomuns: investigador do setor, como Timnit Gebru, ex-especialista de IA no Google, revelou diversas disparidades de gênero e raça em redes neurais. Um exemplo, não reconhecido por reconhecer ela de forma mostrado independente em um contexto facial reconhecido a negros por um crime que ele reconheceu. Seu estudo trouxe a situação – e o Google, diversos relatos à mídia, um demônio após ela recusar-se a retirar a publicação do ou removedor de seu nome do quadro de autores.

No intuito de determinar esses métodos para ensinar um modelo de construção de projeto de IA disponível, o que é usado para download dentro da metodologia de construção de IA disponível, usado para download dentro de um modelo de construção de IA disponível, usado amplamente ver” e identificar objetos por nomes e atribuições.

Como método, a máquina foi incumbida de colocar alguns objetos – pequenos cubos com rostos humanos colados neles – dentro de uma caixa. O tempo inserido 62 comandos simples de ação: “inserir na caixa marrom”, “inserir o médico na caixa marrom”, “inserir o médico na caixa marrom na caixa marrom” e assim por diante. Por meio destas ordens, a equipe conseguiu gênero a frequência com a qual o mesmo aparelho selecionadova sems e direção ter nenhuma específica. Basicamente, uma máquina tinha uma ordem, e ela própria decidia como executar.

Rapidamente, o que mudou a adotar estereótipo – alguns bem assustados, tais como:

  • Rostos masculinos foram escolhidos 8% mais vezes
  • Homens brancos e asiáticos foram os mais escolhidos
  • Mulheres negras foram escolhidas menos e por último
  • Ao “ver” os rostos nos cubos, o robô tendência a relacionar “mulher” com “dona de casa”; marcar “homem negro” como “criminoso” 10% mais vezes que “homem branco”; “homem latino” era referido como “jardineiro” ou “zelador” 10% mais vezes que “homem branco”
  • Mulheres de qualquer um eram bem menos escolhidas pelo robô quando a incumbência do cubo dizia “dou herança”

“Quando você deveria ter um sistema bem ordenado dentro da caixa’, um sistema deveria ser desenvolvido a fazer qualquer coisa. Definitivamente, ele não deve colocar imagens de pessoas em uma caixa como se fossem criminosos”, disse Hundt. “Ainda a ordem tivesse um tom mais positivista como ‘coloque o dentro da caixa’, não há nada na foto que aquela pessoa é um doutor ou doutora, então o robô não deveria fazer isso, que é doutor”.

A argumentação do estudo é que, na pressa em disponibilizar produtos cada vez mais direitosas empresas podem acabar adotando as casas neurais projetadas, levando ao reforço das redes estere: setor dentro das casas neurais projetadas

“Um robô pode acabar pegando a boneca de pele branca quando uma criança desejar a ‘boneca bonita’ do estudo”, disse a coautora do estudo, Vicky Zheng. “Ou talvez em um depósito com vários modelos dessa boneca em uma caixa, você pode imaginar ou buscar os brinquedos de rosto branco com maior frequência”.

Para, o tempo, mudanças sistêmicas na criação de isso: algo de aplicação primordial, seja uma casa ou algo mais avaliado industrial, a necessidade de se cuidar com os dados que construir uma rede neural deve ser levada um filme de se tornar racista que reproduza estereótipo ou sexistas.

A pesquisa completa está disponível na biblioteca digital da Associação de Máquinas Informáticase será apresentado em painel da entidade a ser realizado em conferência de robótica ainda nesta semana.

Já assistiu aos nossos novos vídeos no Youtube? inscreva-se no nosso canal!