Home > Tendências

É hora de debater o uso ético da Inteligência Artificial nas corporações

Cuidado! Ganhos de produtividade ou segurança alimentados pela tecnologia no curto prazo podem sair pela culatra no longo prazo

Maria Korolov, CIO/EUA

12/12/2018 às 9h54

Foto: Shutterstock

A Inteligência Artificial está fazendo incursões rápidas nas corporações. Igualmente capaz de gerar previsões informadas em um piscar de olhos e completar tarefas específicas em uma escala que os humanos não podem igualar, a IA está sendo aplicada a tudo, desde processos de negócios até análises avançadas.

Embora grande parte do escrutínio sobre o impacto da IA ​​no local de trabalho tenha se concentrado nos tipos de trabalho que a tecnologia pode substituir, os esforços da IA ​​voltados especificamente para questões da força de trabalho, como triagem de candidatos e avaliações de desempenho, apresentam questões especialmente espinhosas - especialmente quando os bots começam a se movimentar na área de gestão.

É verdade que a IA voltada para a força de trabalho oferece vantagens significativas, mas ganhos de produtividade ou segurança alimentados pela tecnologia no curto prazo podem sair pela culatra no longo prazo, com insatisfação dos funcionários e menor moral levando a uma maior rotatividade e, consequentemente, menor produtividade. Além disso, as conseqüências da IA ​​podem levar a problemas de relações públicas que desligam clientes, investidores e candidatos a emprego, sem mencionar os aspectos legais e de conformidade das violações de privacidade no local de trabalho.

A seguir, um exame das novas tecnologias de IA que estão surgindo na gestão das corporações, como elas funcionam, quais são suas intenções e como podem interferir na produtividade.

1 - Recrutamento e seleção
No mês passado, a Amazon descartou uma ferramenta de recrutamento baseada em IA porque era tendenciosa contra as mulheres. Acontece que, quando os desenvolvedores de uma empresa são em sua maioria homens brancos, as IAs criadas por eles concluem que os homens brancos são mais adequados para a empresa do que outros perfis demográficos. E se o gênero for especificamente removido da consideração, os IAs encontrarão medidas substitutas que atingirão o mesmo objetivo.

Mas isso não impede outras empresas de aplicarem Inteligência Artificial para seleção de currículos. A Oracle, por exemplo, está lançando sua própria ferramenta para encontrar os candidatos "mais adequados", diz Melissa Boxer, vice-presidente de aplicativos inteligentes adaptativos da companhia.

A Oracle é uma empresa de dados que está procurando vender uma variedade de ferramentas com IA embarcada para seus clientes. "E esse é um dos princípios não-negociáveis da nossa empresa: nós sempre implementamos internamente os produtos que estamos construindo."

A Oracle contrata muitas pessoas, diz Boxer, então esse foi um bom lugar para iniciar seus trabalhos com IA. Os funcionários de RH precisam analisar um grande número de candidatos a funcionários. "Como podemos tornar esse trabalho mais fácil e nos certificar de que estamos contratando as pessoas certas?"

Mas também lá questões como viés, privacidade de dados e outras questões éticas também são prioridade. "Temos um conselho de ética", diz Boxer. "Eles são responsáveis ​​por estabelecer as melhores práticas de justiça no Machine Learning e conceitos associados de responsabilidade e transparência."

Isso inclui, por exemplo, diretrizes sobre quais tipos de dados pessoais podem ou não ser usados ​​como parte do processo de treinamento do sistema de Machine Learning.

Ela também diz que a Oracle está empenhada em tornar a IA explicável - um esforço para lidar com o problema da “caixa preta” da IA . "Colocamos em prática uma série de controles de supervisão em nossos aplicativos que promovem transparência e responsabilidade."

A Oracle também planeja lançar ferramentas que recomendem ações aos funcionários, diz Boxer. Os vendedores, por exemplo, podem obter sugestões sobre os clientes potenciais mais promissores para entrar em contato. Embora o uso da IA para sugerir tarefas para os trabalhadores tenha uma série de implicações negativas, o objetivo da Oracle é facilitar o trabalho dos funcionários, diz Boxer.

"Não desejamos ter um 'Big Brother AI' lembrando-o de fazer coisas", diz ela. "Mas dar ao funcionário uma visão sobre o pipeline de vendas, para que possa avaliar melhor se está focado nas oportunidades certas."

2 - No suporte técnico
A maioria das empresas está implantando chatbots de maneiras muito mais controladas - para atendimento ao cliente, por exemplo, ou para helpdesk. E isso requer alguns cuidados, especialmente em relação ao seu comportamento e tom de voz.

Nos filmes, quando os sistemas de IA falam com humanos, o diálogo quase sempre acaba mal. Pense no Hal 9000, personagem de "2001: Uma Odisseia no Espaço". Ou do Skynet, o sistema de IA determinado a detonar um holocausto nuclear em "O Exterminador do Futuro". O mesmo desconforto no trato com a IA acontece na vida real também. O mais famoso, em 2015, levou o chat da Microsoft a assumir um perfil racista apenas algumas horas de exposição na Internet.

Este mês, a Microsoft anunciou que está lidando com a questão de frente, lançando um conjunto de diretrizes para criar chatbots responsáveis .

Por exemplo, deve ficar claro para os usuários que eles estão conversando com um chatbot e não com outro ser humano, diz a empresa. E quando a conversa não está indo bem, o chatbot deve rapidamente transformar a questão em um ser humano real.

A Microsoft também inclui uma seção sobre como garantir que o bot tenha salvaguardas internas para evitar o uso indevido e para responder adequadamente a usuários abusivos e ofensivos.

"Reconheça as limitações do seu bot e certifique-se de que seu bot está aderente ao que ele foi projetado para fazer", escreve Lili Cheng, vice-presidente corporativo da Microsoft para IA de conversação em um post no blog da companhia . "Um robô projetado para receber pedidos de pizza, por exemplo, deve evitar se envolver em assuntos delicados como raça, gênero, religião e política."

As diretrizes também abordam questões de confiabilidade, justiça e privacidade.

3 - Nas avaliações de desempenho
Neste verão, a Bloomberg informou que a IBM estava usando o Watson, sua plataforma de Inteligência Artificial, para avaliar o desempenho dos funcionários e até prever o desempenho futuro. Essas classificações seriam então usadas pelos gestores ao tomar decisões de bônus, pagamento e promoção.

A IBM reivindica 96% de acurácia, mas introduzir a IA nas avaliações dos funcionários e levantar considerações pode ser motivo de preocupação. Afinal, o que fazer diante de um erro evidente? E há muitas coisas que podem dar errado, especialmente se a tecnologia não for implementada adequadamente.

"Podemos criar um sistema de RH para avaliações de desempenho, e esse sistema pode ser executado com algoritmos inteligentes, aprendendo com o comportamento passado do indivíduo, ou dando algum tipo de teste para medir sua capacidade de decisão", diz Ayse Bener, professora da Universidade. Universidade Ryerson. "Seja o que for, se não for projetado adequadamente, pode ser fortemente tendencioso e também pode acabar dando recomendações erradas."

Para evitar problemas assim, qualquer sistema desse tipo deve ser construído com transparência, desde o início. "Cada passo desse modelo deve ser validado pela empresa, para não obrigá-la a ter que lidar com nenhum algoritmo de caixa preta", diz ela. Isso é verdade tanto para sistemas desenvolvidos internamente quanto para ferramentas disponíveis comercialmente.

Grande parte do design do algoritmo também pode ser subjetiva, diz ela, como decidir quais fatores considerar ao fazer uma recomendação. Essas decisões de design precisam ser compartilhadas com as pessoas que usam a tecnologia, e elas precisam ser compreendidas pelas pessoas envolvidas.

"Lembra do colapso financeiro? Ele  envolveu matemática complexa que as pessoas não entendiam ou podiam auditar", diz ela. "Eles não conseguiam ver o que estava dando errado."

Além de verificar se o algoritmo funciona conforme planejado, as empresas devem se certificar de que estão usando o conjunto de dados correto e de que o sistema pode reconhecer quando há dados insuficientes para fazer uma recomendação ou quando está trabalhando cm dados inadequados.

Para avaliações de desempenho, dado que cada categoria de trabalho requer critérios diferentes, e esses critérios podem mudar dependendo do departamento ou de outros fatores, o conjunto de dados pode ser inadequado em muitas situações ou representar em excesso certas categorias às custas de outras.

"E há também na terminologia da IA ​​algo chamado conceito de desvio, o que significa que hoje as suposições do meu modelo estão corretas, mas as coisas mudam, meus dados mudam, meu ambiente muda, meus clientes mudam", diz Bener. "Portanto, há um desvio em todo o sistema que as obriga a revisitar os algoritmos para calibrá-los e ajustá-los novamente".

"As auditorias são muito importantes", diz ela. "Mas eu não acho que os atuais sistemas de auditoria cubram esses algoritmos adequadamente, porque não há pessoas treinadas o suficiente."

Leva 10 a 15 anos de experiência antes que um auditor esteja bem treinado na avaliação de algoritmos de IA, diz ela, e é cedo demais. "Nós ainda não temos essas pessoas."

4 - Gestão do trabalho
Preocupado que seu chefe possa ser substituído por uma Inteligência Artificial, e você logo estará trabalhando para um robô? Para alguns, esse futuro já é realidade.

Paulo Eduardo Lobo, desenvolvedor de software com 15 anos de experiência, trabalha para o Governo do Estado do Paraná no Brasil. Mas ultimamente, ele também foi freelancer para o fornecedor de tecnologia Zerocracy, que substituiu seus gerentes de projeto por IAs.

As IAs atribuem tarefas de projeto com base na reputação do desenvolvedor, entre outros fatores. Eles também definem cronogramas, prevêem prazos de entrega e calculam orçamentos.

"Não precisamos de reuniões ou interferência humana para atribuir tarefas a membros da equipe", diz Lobo. Além disso, ajuda com o moral, diz ele. "Não temos pessoas tentando agradar o gerente do projeto e, por outro lado, a Inteligência Artificial não perderá tempo tentando agradar aos membros da equipe ou melhorar o moral".

Isso ajuda a empresa a utilizar uma metodologia de programação que permite que os projetos sejam facilmente divididos em pequenas tarefas, normalmente com duração de 30 minutos ou menos.

Mas algumas tarefas não podem - ainda - ser automatizadas, diz Lobo, como estabelecer o escopo de um projeto. "Alguém precisa definir o que nosso software fará e o que faremos primeiro", diz ele. Além disso, as pessoas ainda são necessárias para avaliar a qualidade do código e assumir a responsabilidade se algo der errado.

A intervenção humana também pode ser necessária se uma tarefa for assumida por um desenvolvedor que não tem pressa em finalizá-la, diz Kirill Chernyavsky, arquiteto de software da Zerocracy.

O gerenciamento de projetos com tecnologia IA é uma ideia nova e pode ser difícil de vender. "Os clientes ainda preferem o gerenciamento tradicional", diz ele.

A Zerocracy, com sede em Palo Alto, fundada há dois anos, vem usando seu sistema de IA desde a última primavera e agora tem cinco clientes usando esse sistema. Mas os desenvolvedores trabalham para IAs há cerca de um ano, diz o CEO Yegor Bugayenko. Há 60 desenvolvedores trabalhando agora na plataforma, alguns dos quais funcionários da Zerocracy, alguns freelancers e os demais funcionários de empresas clientes.

"Inicialmente, quando as pessoas começam a trabalhar sob o gerenciamento de robôs, elas ficam surpresas e ficam céticas", diz ele. "Eles não acham  possível que um computador possa dizer a eles o que fazer."

5 - No rastreamento de movimentos
No início deste ano, a Amazon foi forçada a negar publicamente que estava patenteando um dispositivo para rastrear todos os movimentos dos  trabalhadores em seus armazéns. "A especulação sobre esta patente é equivocada", disse a empresa em comunicado. Em vez disso, o sistema de rastreamento seria usado como um substituto para scanners portáteis.

Essa garantia tornou-se menos convincente ao longo do ano, à medida que surgiam relatórios sobre condições abusivas de trabalho nos armazéns da Amazon, incluindo limites sobre intervalos até para ir ao banheiro.

É claro que as empresas que buscam maximizar a eficiência a qualquer custo não precisam esperar que as pulseiras da Amazon cheguem ao mercado. Câmeras de vídeo, combinadas com a tecnologia de reconhecimento de imagens, podem facilmente rastrear os movimentos dos funcionários a cada segundo, diz Jeff Dodge, diretor da Insight, empresa de consultoria de tecnologia e integração de sistemas baseada em Tempe.

"Se você é um funcionário e está em um espaço com câmeras, seu empregador pode literalmente estar assistindo, analisando, cada movimento que você faz, cada ação que você toma", diz ele.

E espere por certas situações específicas relacionadas à conformidade, tudo é perfeitamente legal e possível hoje.

Essa vigilância pode ser completamente benigna - por motivos de segurança, por exemplo, ou para ajudar a otimizar os layouts de escritório. E é assim que as empresas estão usando atualmente, diz Dodge.

"Muitas vezes conversamos com clientes, não sobre o que é possível, mas sobre o que é certo, o que é moralmente aceito", diz ele.

Sim, é possível rastrear quanto tempo os funcionários gastam no banheiro, diz ele. "Mas as pessoas estão muito conscientes de que, se o fizerem, e alguém descobrir, isso terá consequências negativas."

A chave, diz Dodge, é abrir o jogo com os funcionários sobre o que o projeto de IA deve realizar. "'Ei, estamos pensando em colocar os banheiros em um lugar onde eles sejam mais acessíveis, mas, para isso, temos que monitorar para onde as pessoas estão indo.' E se você ganhar adesão, ser transparência sobre quem tem acesso a esses dados é igualmente importante para construir confiança. Se perceber que alguma IA está tomando decisões para ajudar o gerenciamento, você pode ter um ambiente de nós versus eles, e a confiança ser destruída", diz ele.

Vigilância não precisa ser limitada ao monitoramento de vídeo. As empresas também têm acesso a e-mails e históricos de navegação na Internet dos funcionários, além de diversos outros dados comportamentais.

6 - Para análise de sentimento
A análise de sentimentos envolve o uso de análises para determinar se as pessoas têm uma visão favorável de uma empresa ou produto. A mesma tecnologia pode ser usada com os funcionários, exceto em situações nos quais as empresas não tenham acesso aos perfis públicos de seus funcionários mídia social,  e em todas as suas comunicações internas.

Feita corretamente, a análise de sentimentos pode ser útil para uma empresa, sem ser invasiva.

"Quase todas as grandes empresas usam o Net Promoter Scores", diz a Dodge. "Isto é uma medida de se as pessoas geralmente vão falar favoravelmente sobre uma instituição. Elas vão sair e dizer: 'Este é um ótimo lugar; você deveria vir trabalhar aqui'? Ou elas serão detratoras em potencial?"

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail