Fazer login no IT Mídia Redefinir senha
Bem-vindo de volta,
Digite seu e-mail e clique em enviar
Ainda não tem uma conta? Cadastre-se
Salvar em Nova pasta de favoritos

+

Criar pasta
Salvar Escolher Pasta
Por que a Inteligência Artificial na contratação pode ser prejudicial
Home > Tendências

Por que a Inteligência Artificial na contratação pode ser prejudicial

Ferramentas afirmam reduzir o preconceito com decisões baseadas em máquinas, mas, na verdade, elas podem prejudicar a diversidade

Sarah K. White

17/09/2021 às 16h03

Foto: Shutterstock

O uso de inteligência artificial no processo de contratação aumentou nos últimos anos, com as empresas recorrendo a avaliações automatizadas, entrevistas digitais e data analytics para analisar currículos e selecionar candidatos. Mas, à medida que a TI se esforça para melhorar a diversidade, equidade e inclusão, acontece que a IA pode causar mais danos do que ajudar se as empresas não forem estratégicas e cuidadosas sobre como implementam a tecnologia.

“O viés geralmente vem dos dados. Se você não tiver um conjunto de dados representativo ou qualquer número de características que decidir, então é claro que você não vai encontrar e avaliar os candidatos de maneira adequada”, disse Jelena Kovačević, IEEE Fellow, e William R. Berkley, Professor e Reitor da Escola de Engenharia Tandon da NYU.

O principal problema com o uso de IA na contratação é que, em uma indústria que tem sido predominantemente masculina e branca por décadas, os dados históricos sobre os quais os sistemas de contratação de IA são construídos terão, em última análise, um viés inerente. Sem diversos conjuntos de dados históricos para treinar algoritmos de IA, as ferramentas de contratação de IA muito provavelmente carregam os mesmos preconceitos que existiam na contratação de tecnologia desde os anos 1980. Ainda assim, usada de forma eficaz, a IA pode ajudar a criar um processo de contratação mais eficiente e justo, dizem os especialistas.

Os perigos do preconceito em IA

Como os algoritmos de IA são normalmente treinados em dados anteriores, o viés com IA é sempre uma preocupação. Na ciência de dados, o viés é definido como um erro que surge de suposições incorretas no algoritmo de aprendizagem. Treine seus algoritmos com dados que não refletem o cenário atual e você obterá resultados errôneos. Assim, com a contratação, especialmente em um setor como o de TI, que teve problemas históricos com diversidade, treinar um algoritmo em dados históricos de contratação pode ser um grande erro.

“É realmente difícil garantir que um pedaço de software de IA não seja inerentemente tendencioso ou tenha efeitos tendenciosos”, disse Ben Winters, Pesquisador de IA e Direitos Humanos do Centro de Informações de Privacidade Eletrônica. Embora medidas possam ser tomadas para evitar isso, ele acrescenta, "muitos sistemas mostraram ter efeitos tendenciosos com base na raça e deficiência".

Se você não tiver uma diversidade apreciável em seu conjunto de dados, será impossível para um algoritmo saber como os indivíduos de grupos sub-representados teriam se saído no passado. Em vez disso, seu algoritmo será influenciado pelo que seu conjunto de dados representa e comparará todos os candidatos futuros a esse arquétipo, diz Kovačević.

“Por exemplo, se os negros fossem sistematicamente excluídos do passado, e se você não tivesse nenhuma mulher na fila no passado, e você cria um algoritmo baseado nisso, não há como o futuro ser previsto adequadamente. Se você contratar apenas 'Ivy League schools', então você realmente não sabe qual será o desempenho de um candidato de uma escola menos conhecida, então há várias camadas de preconceito”, diz ela.

Wendy Rentschler, Chefe de Responsabilidade Social Corporativa, Diversidade, Equidade e Inclusão da BMC Software, está bem ciente dos potenciais negativos que a IA pode trazer para o processo de contratação. Ela aponta para um caso infame de tentativa da Amazon de desenvolver uma ferramenta de recrutamento de IA como um excelente exemplo: a empresa teve que encerrar o projeto porque o algoritmo discriminava as mulheres.

“Se a maior e melhor empresa de software não pode fazer isso, eu dou uma grande pausa para todos os técnicos de RH e suas afirmações de serem capazes de fazer isso”, diz Rentschler.

Algumas empresas de software que contratam IA fazem grandes afirmações, mas ainda não se sabe se o software pode ajudar a determinar o candidato certo. A tecnologia pode ajudar as empresas a simplificar o processo de contratação e encontrar novas maneiras de identificar candidatos qualificados usando IA, mas é importante não permitir que reivindicações grandiosas atrapalhem o julgamento.

Se você está tentando melhorar a diversidade e inclusão em sua organização, a IA pode parecer uma solução rápida ou solução mágica, mas se você não for estratégico sobre o uso da IA no processo de contratação, o tiro pode sair pela culatra. O segredo é garantir que seu processo de contratação e as ferramentas que você está usando não excluam os grupos tradicionalmente sub-representados.

Discriminação com IA

Cabe às empresas garantir que estejam usando IA no processo de contratação da maneira mais ética possível e não sejam vítimas de alegações exageradas do que as ferramentas podem fazer. Matthew Scherer, Conselheiro Sênior de Política para Privacidade do Trabalhador no Center for Democracy & Technology, aponta que, uma vez que o departamento de RH não gera receita e geralmente é rotulado como uma despesa, os líderes às vezes estão ansiosos para trazer tecnologia de automação que pode ajudar a cortar custos. Essa ansiedade, no entanto, pode fazer com que as empresas ignorem potenciais negativos do software que estão usando. Scherer também observa que muitas das afirmações feitas por empresas de software que contratam IA são frequentemente exageradas, se não completamente falsas.

“Particularmente ferramentas que afirmam fazer coisas como analisar as expressões faciais das pessoas, seu tom de voz, qualquer coisa que mede aspectos da personalidade”, diz ele.

Na melhor das hipóteses, as ferramentas que afirmam medir o tom de voz, as expressões e outros aspectos da personalidade de um candidato em, por exemplo, uma entrevista em vídeo estão "medindo o quão culturalmente 'normal' uma pessoa é", o que pode, em última análise, excluir candidatos com deficiência ou qualquer candidato que não se enquadre no que o algoritmo determina é um candidato típico. Essas ferramentas também podem colocar os candidatos com deficiência na posição desconfortável de ter que decidir se eles devem revelar qualquer deficiência antes do processo de entrevista. Os candidatos com deficiência podem ter a preocupação de que, se não divulgarem, não obterão as acomodações certas necessárias para a avaliação automatizada, mas podem não se sentir confortáveis em revelar uma deficiência logo no início do processo de contratação - ou mesmo em nenhuma parte do processo.

E como Rentschler aponta, minorias, mulheres e candidatos com deficiência estão frequentemente acostumados à prática de "troca de código" em entrevistas - que é quando grupos sub-representados fazem certos ajustes na maneira de falar, aparecer ou se comportar, a fim de fazer outros mais confortáveis. Nesse caso, os sistemas de IA podem perceber isso e identificar incorretamente seu comportamento como inautêntico ou desonesto, rejeitando candidatos potencialmente fortes.

Scherer diz que as leis de discriminação se enquadram em duas categorias: impacto díspar, que é a discriminação não intencional; e tratamento díspar, que é a discriminação intencional. É difícil projetar uma ferramenta que possa evitar impactos díspares "sem favorecer explicitamente os candidatos de grupos específicos, o que constituiria um tratamento distinto sob a lei federal".

Regulamentos de contratação de IA

IA é uma tecnologia relativamente nova, deixando pouca supervisão quando se trata de legislação, políticas e leis sobre privacidade e práticas comerciais. Winters aponta para uma reclamação da FTC de 2019 apresentada pela EPIC, alegando que a HireVue estava usando práticas comerciais enganosas relacionadas ao uso de reconhecimento facial em seu software de contratação.

A HireVue afirmou oferecer um software que “rastreia e analisa a fala e os movimentos faciais dos candidatos para poder analisar o ajuste, a inteligência emocional, as habilidades de comunicação, a capacidade cognitiva, a capacidade de resolução de problemas e muito mais”. No final das contas, HireVue recuou em suas reivindicações de reconhecimento facial e no uso da tecnologia em seu software.

Mas existe uma tecnologia semelhante por aí que usa jogos para "supostamente medir atributos comportamentais subjetivos e combinar com adequação organizacional" ou que usará IA para "rastrear a Internet em busca de informações publicamente disponíveis sobre declarações de um candidato e, em seguida, analisá-las em busca de possíveis sinais de alerta ou adequação”, de acordo com Winters.

Também há preocupações com a quantidade de dados que a IA pode coletar sobre um candidato durante a análise de suas entrevistas em vídeo, avaliações, currículos, perfis do LinkedIn ou outros perfis de mídia social pública. Muitas vezes, os candidatos podem nem saber que estão sendo analisados por ferramentas de IA no processo de entrevista e há poucos regulamentos sobre como esses dados são gerenciados.

“No geral, atualmente há muito pouca supervisão para ferramentas de contratação de IA. Vários projetos de lei estaduais ou locais foram apresentados. No entanto, muitos desses projetos de lei têm lacunas significativas - ou seja, não se aplicam a agências governamentais e oferecem soluções alternativas significativas. O futuro da regulamentação na contratação com suporte de IA deve exigir transparência significativa, controles sobre a aplicação dessas ferramentas, coleta estrita de dados, uso e limites de retenção e testes independentes de terceiros que são publicados gratuitamente”, diz Winters.

Uso responsável de IA na contratação

Rentschler e sua equipe na BMC se concentraram em encontrar maneiras de usar a IA para ajudar o "capital humano da empresa a ser mais estratégico". Eles implementaram ferramentas que selecionam os candidatos rapidamente, usando avaliações baseadas em habilidades para a função pela qual estão se candidatando e que agendam entrevistas instantaneamente para se conectar com um recrutador. BMC também usou IA para identificar linguagem problemática em suas descrições de cargos, garantindo que sejam neutras em termos de gênero e inclusivas para todos os candidatos. A BMC também empregou o software para conectar os novos contratados com seus benefícios e informações organizacionais internas durante o processo de integração. O objetivo de Rentschler é encontrar maneiras de implementar IA e automação que possam ajudar os humanos em sua equipe a fazer seu trabalho de maneira mais eficaz, em vez de substituí-los.

Embora os algoritmos de IA possam carregar tendências inerentes com base em dados históricos de contratação, uma maneira de evitar isso é se concentrar mais na contratação baseada em habilidades. A equipe de Rentschler só usa ferramentas de IA para identificar candidatos que têm conjuntos de habilidades específicas que desejam adicionar à sua força de trabalho e ignora quaisquer outros identificadores, como educação, gênero, nomes e outras informações de identificação que possam ter historicamente excluído um candidato do processo. Ao fazer isso, a BMC contratou candidatos de origens inesperadas, diz Rentschler, incluindo um refugiado sírio que originalmente era dentista, mas também tinha alguma experiência em codificação. Como o sistema estava focado apenas na busca de candidatos com habilidades de codificação, o ex-dentista passou pelo filtro e foi contratado pela empresa.

Outras estratégias éticas incluem sistemas de controle e equilíbrio. Scherer consultou uma empresa que desenvolveu uma ferramenta para enviar candidatos em potencial a um recrutador, que então revisava seus currículos e decidia se eles eram adequados para o cargo. Mesmo que esse recrutador rejeitasse um currículo, o currículo do candidato ainda seria submetido ao algoritmo novamente e, se fosse sinalizado como um bom candidato em potencial, seria enviado para outro recrutador que não saberia que já foi revisado por outra pessoa no time. Isso garante que os currículos sejam verificados duas vezes por humanos e que eles não dependam exclusivamente da IA para determinados candidatos qualificados. Também garante que os recrutadores não negligenciem os candidatos qualificados.

“É importante que o humano mantenha o julgamento e não confie apenas no que a máquina diz. E isso é o que é difícil de treinar, porque a coisa mais fácil para um recrutador humano sempre será apenas dizer: 'Vou seguir com tudo o que a máquina me disser se a empresa espera que eu use essa ferramenta'”, diz Scherer.

Snippets HTML5 default Intervenções CW
Vai um cookie?

A CIO usa cookies para personalizar conteúdo e anúncios, para melhorar sua experiência em nosso site. Ao continuar, você aceitará o uso. Para mais detalhes veja nossa Política de Privacidade.

Este anúncio desaparecerá em:

Fechar anúncio

15