Home > Tendências

É possível superar o viés da Inteligência Artificial e Machine Learning?

Quem dominar a criação e implantação de plataformas de IA/ML pode afetar não apenas as pequenas decisões globais, mas também as principais

Robin Austin, CIO (EUA)

25/09/2019 às 20h40

Foto: Shutterstock

As máquinas recebem milhões de dados para processar, interpretar e aprender. Diferentemente dos seres humanos, os algoritmos estão mal equipados para neutralizar conscientemente os vieses aprendidos, porque, embora gostaríamos de acreditar que a inteligência artificial (IA) / machine learning (ML) possam se correlacionar com o pensamento humano, na verdade não é isso o que acontece. A IA e o ML criaram o que determinamos ser a mais recente revolução industrial, dando aos computadores a capacidade de interpretar a linguagem humana e, sem intenção, também aprender preconceitos.

Mas então, de onde vêm os dados usados ​​pelos sistemas de IA/ML? A maioria dessas informações vem das pessoas que criaram os algoritmos e os programas usando dados, e que até recentemente eram homens de classe média. Portanto, “sem pensar” ou sem intenção, os preconceitos raciais e de gênero dominaram o processo de aprendizado da IA/ML. Os sistemas não são capazes de pensar por si só, portanto, são tão tendenciosos quanto os seres humanos que os construíram - pelo menos por enquanto.

Muitas pesquisas mostram que, à medida que as máquinas adquirem recursos de linguagem semelhantes às humanas, elas também estão absorvendo preconceitos profundamente arraigados, ocultos nos padrões de linguagem. Em softwares de recrutamento e seleção, isso significa que um currículo pode não ser selecionado, por exemplo, por conta de padrões, e não com base nas habilidades do candidato.

Estudos recentes demonstram, através de testes, vieses psicológicos humanos nos sistemas de inteligência artificial e machine learning. Por exemplo, palavras associadas a “flores” versus “insetos” foram determinadas como psicologicamente mais agradáveis. Levando esse cenário para o mundo do RH, resultados profissionais para as mulheres são vistos com preconceitos de gênero através das palavras "feminino" e "mulher", que são associadas às profissões de humanas e ao lar. Por outro lado, os algoritmos “masculino” e “homem” resultam em associações com profissões de matemática, ciências e engenharia. Na mesma linha, nomes europeus foram fortemente associados a palavras como “feliz”, enquanto nomes afro-americanos foram associados a termos desagradáveis.

Estatisticamente, a pesquisa mostra que, mesmo com um coeficiente de variação (CV) idêntico de 50%, um americano com descendência europeia tem mais chances de ser entrevistado do que um cidadão afro-americano.

Os resultados das pesquisas sugerem que os algoritmos herdam explicitamente os mesmos preconceitos sociais que as pessoas que os programaram. Acredita-se que, embora seja uma tarefa complicada, é possível que os sistemas de IA/ML possam ser melhorados para lidar com esse viés. Hoje, essa correção já está ocorrendo em empresas como a Google e os mecanismos de pesquisa da Amazon na web.

O viés na IA/ML pode ser eliminado?

Eliminar preconceitos, modificando a interpretação, não é tão fácil quanto parece. A inferência e a interpretação da linguagem são características humanas bastante sutis, baseadas em influências como histórico socioeconômico, gênero, educação e raça - tudo isso contribui para a existência de preconceitos.

Criar algoritmos projetados para “entender” a linguagem, sem enfraquecer seus poderes interpretativos, é extremamente desafiador. Selecionar “apenas uma” interpretação mais apropriada e adicioná-la à árvore de decisão faz com que os algoritmos imitem o pensamento humano.

E se a primeira interpretação da IA ​/ML seguir o que nós humanos acreditamos ser o caminho errado, baseado no intelecto humano, nas leis culturais e morais? A entrada imediata de correção seria necessária, pois os dados se acumulam ao longo da árvore de decisão, à medida que etapas de comportamento são executadas. Como programamos leis morais e culturais aceitáveis ​​em sistemas de IA/ML? Quem decide o que são essas leis morais e culturais?

Amazon, Google, IBM, Microsoft e muitas outras avaliaram o viés em suas plataformas de IA/ML, tentando entender o problema para buscar uma solução. A Amazon até parou de usar o software de IA/ML como uma ferramenta de recrutamento. Após muitos anos de pesquisa, o que foi determinado é que, uma vez que a IA/ML replica padrões vindos, em sua maioria, de engenheiros do sexo masculino, os vieses implementados são de sua autoria.

Para lidar com o problema, a maioria das grandes empresas está começando a analisar os vieses e a tentar "encontrar uma cura". Uma sugestão é ter grande diversidade na equipe de desenvolvimento, com supervisão constante. Também é indicado criar um órgão de supervisão e conformidade, permitindo que os sistemas sejam capacitados com base em uma autoridade moral.

Estamos entrando em um romance de ficção científica semelhante ao de 1984 de Orwell? Você não vê evidências de uma corrida global por uma autoridade moral econômica através do domínio da IA ​​/ ML? Quem dominar a criação e implantação de plataformas de IA / ML pode afetar não apenas as pequenas decisões globais, mas também as principais.

 

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail