Home > Tendências

Cuidado! A inteligência artificial tem viés

E ele pode levar a consequências não intencionais. Certificar-se de que você entende como os sistemas estão interpretando os dados que recebem é uma maneira de resolver o problema

Sharon Florentine, CIO/EUA

27/03/2018 às 21h22

IA_561931702.jpg
Foto:

Alexa, Siri, Cortana... Esses assistentes virtuais digitais estão se tornando parte do nosso cotidiano e, além de suas semelhanças funcionais, têm uma outra característica importante em comum: todos eles são codificados para se apresentar como mulheres.

Você nunca se perguntou por que todos esses ajudantes de IA são mulheres?

Ao contrário de outras tecnologias, "com a IA, você está criando algo com o qual está interagindo como se fosse outra pessoa, ou está usando para complementar atividades humanas, tomar decisões e recomendações", diz Rob LoCascio, CEO da LivePerson . "E então temos que nos perguntar, por quê? Por que estamos generalizando essas tecnologias 'assistivas' dando a elas personas femininas? E o que isso diz sobre nossas expectativas em relação às mulheres no mundo e no local de trabalho? Que as mulheres são inerentemente 'ajudantes'; que eles são 'nags'; que desempenham funções administrativas; que são boas em receber ordens? ”, questiona LoCascio.

Preconceito amplificado

Claro, não são apenas os assistentes digitais que têm um problema de viés. Como relata a Bloomberg, os pesquisadores começaram a notar a tendência de os sistemas de IA repetirem e amplificarem os vieses de seus criadores.

“Empresas, agências governamentais e hospitais estão se voltando cada vez mais para o Machine Learning, reconhecimento de imagem e outras ferramentas de Inteligência Artificial para ajudar a prever tudo, desde a capacidade de crédito de um solicitante de empréstimo até o tratamento preferido para uma pessoa que sofre de câncer. As ferramentas têm grandes pontos cegos que afetam particularmente mulheres e minorias ”, diz o artigo.

No recrutamento e na contratação, por exemplo, a IA costuma ser usada para identificar candidatos ideais para cargos em aberto. Deixada desmarcada, no entanto, a IA pode piorar os problemas de diversidade em áreas como a TI, onde já existe uma falta significativa de mulheres e minorias sub-representadas.

“Na tecnologia, se você está procurando candidatos para papéis técnicos, a maioria será de homens brancos; Então, se você jogar todas essas entradas no sistema e usar o que quer que surja, verá seu sistema fazendo a correlação entre, digamos, um desenvolvedor associado a um homem branco ”, diz Ankit Somani, cofundadora da AllyO . "Com base nos dados que o sistema recebeu, essa resposta não é errada, mas se você não entender como a atual falta de diversidade está impactando esses sistemas, então você pode agravar o problema", diz ele.

O viés na IA também tem um impacto nos negócios. Olhe para o varejo, por exemplo. “Mais de 70% das compras online são feitas por mulheres. As mulheres detêm poder de compra e tomam a maior parte das decisões orçamentárias , portanto, se as empresas quiserem atrair e reter esses clientes, elas precisam pensar sobre essas coisas ”, diz LoCascio. "Não é apenas um problema para as empresas em si, mas para o mundo em geral - se a maioria de suas interfaces de usuário e experiência do usuário são projetada por homens, para homens, então eles têm um viés de gênero", diz.

O elemento humano

Certificar-se de que você entende como os sistemas de IA estão interpretando os dados que recebem e ajustando os algoritmos é uma maneira de resolver o problema de polarização, diz Somani.

“A tecnologia de IA é boa para processar números e para processar grandes quantidades de dados e encontrar padrões. A parte humana está em entender os padrões, descobrir onde é necessário haver mudanças com base nos resultados e, é claro, em estabelecer conexões emocionais reais ”, diz ele.

“Juntos, você pode trabalhar em direção ao equilíbrio e certificar-se de que os sistemas de IA estejam com desempenho justo e equitativo, mas você precisa fazer essas verificações. Ao contratar uma pessoa, você nunca faria uma avaliação de desempenho? Nunca faria check-in para ver como ela está se saindo? Se o desempenho é bom? Claro que não. Por que você também não faria isso com as tecnologias inteligentes que está incorporando? ”, questiona.

Examinar continuamente os resultados que você recebe e olhar atentamente para os preconceitos é fundamental, acrescenta Melanie Pasch, chefe de conteúdo e gerente da Gloat .

IA

Por exemplo, o software de recrutamento anônimo da Gloat não apenas anonimiza os currículos removendo nomes e qualquer outro fator que possa associar candidatos a sexo, raça ou etnia, mas outros fatores que podem apontar para a classe socioeconômica.

“Percebemos, observando os resultados, que certos hobbies - como andar a cavalo, por exemplo - eram um indicador inconsciente da classe socioeconômica. Também percebemos, em uma nota positiva, que para alguns papéis, os graus não estavam necessariamente correlacionados com o sucesso no trabalho, então codificamos esses fatores para removê-los da consideração e nos concentramos em outros pontos de dados ”, diz ela.

Também deve haver um processo pelo qual os humanos revisem as decisões da IA ​​para se certificar de que estão funcionando conforme planejado, e não estão exacerbando vieses, diz Pasch.

“Ninguém deve contratar apenas com base no que um algoritmo diz, porque sabemos que esses problemas existem. Mas à medida que progredimos e começamos a ver uma representação melhor, a tecnologia aprenderá e evoluirá conosco ”, diz Pasch.

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail