Home > Tendências

A Inteligência Artificial não pode e nem deve ser subestimada

A organização (a começar pelos C-levels) tem que compreender o que é IA, e o entendimento de seu potencial e de suas limitações deve ser disseminado

Cezar Taurion *

02/02/2019 às 16h38

Foto: Shutterstock

É difícil imaginar algo mais revolucionário que a Inteligência Artificial usada de forma ubíqua. Mesmo uma pequena dose de inteligência incorporada a qualquer objeto eleva a eficácia do sistema a outro patamar. À medida que que incorporarmos a IA ao nosso dia a dia, ela será tão comum quanto um ERP nas empresas. Um estudo da McKinsey “Notes from the AI Frontier: modeling the impact of AI on the world economy nos dá uma clara visão do impacto da IA na economia mundial e, claro, nas empresas. A IA não pode e nem deve ser subestimada.

Mas, hoje ainda estamos muito longe disso. A IA está hoje como a Internet estava há 20 anos atrás, quando o Google estava sendo lançado, a Amazon era uma pequena livraria online e o smartphone sequer tinha chegado ao mercado!

Mas, apesar de ainda estarmos engatinhando, algumas experiências, com seus acertos e erros,  têm mostrado seu potencial e vamos compartilhar aqui um pouco do que estamos aprendendo na DataH.

Antes de mais nada, para uma empresa pensar em fazer alguma coisa com a Inteligência Artificial ela deve primeiro ter compreensão do que é IA. O escritor britânico de ficção científica, Arthur C. Clarke, disse certa vez: “Any sufficiently advanced technology is indistinguishable from magic”. Para muitos executivos, a IA ainda é mágica. Já vi coisas do tipo “ah, a IA vai resolver isso para nós!”, como se IA fosse aquela varinha de condão na mão do mágico, que “puft, resolve o problema”.

Não, IA não é mágica. A organização (a começar pelos C-levels) tem que compreender o que é IA, e este entendimento de seu potencial e de suas limitações deve ser disseminado por toda a empresa.

Um exemplo que pode servir de benchmark é a iniciativa do Airbnb, descrita em “Airbnb is running its own internal university to teach data Science”. A IA é probabilística e não pode ser aplicada a problemas determinísticos. Uma folha de pagamentos é determinística. Seu salário é R$ 25 mil e você espera este exato valor sendo depositado na sua conta. Não aceitaria uma probabilidade de somente 95% deste valor ser depositado. Os 5% de erro poderiam afetar seu plano de vida no mês. A análise de radiologia, por outro lado, que indica com 97% de acerto um provável câncer de mama, é uma aplicação de IA, pois, a própria medicina é probabilística.

Mas além da compreensão, a empresa precisa ter competência ou talentos. É absolutamente necessário ter pessoal que saiba identificar que problemas poderão ser resolvidos com IA, que tipos de dados (e se existem, onde estão e como poderão ser usados) serão necessários e que conjunto de algoritmos serão adotados. Usaremos algoritmos preditivos supervisionados? Ou não supervisionados? Ou será o caso de uso de algoritmos de reinforcement learning?

Mas, esperem! Preciso pensar em algoritmos sofisticados? Nem sempre, embora um estudo da McKinsey (“Notes from the AI Frontier: insights from hundreds of use cases”) mostre que técnicas avançadas de Deep Learning, como “feed forward neural networks”, “recurrent neural networks”, e “convolutional neural networks”, representam pelo menos 40% do valor potencial considerando todas as técnicas analíticas.

Outras técnicas avançadas, como “generative adversarial networks” (GANs) e “reinforcement learning”, não foram avaliadas no estudo porque ainda estão bem incipientes, mas com certeza serão técnicas extremamente relevantes no futuro próximo. Portanto, ter pessoal que conheça estas técnicas, ou que tenha potencial de vir a conhecê-las, é essencial para as suas futuras aplicações de IA.

Com certeza será necessário escrever algum código e provavelmente o idioma Python será usado. Tem gente capaz de escrever código Python? Além disso, de  nada adianta ter um grupo de “Machine Learning Engineers” se não houver interlocutores nas áreas de negócio que entendam os desafios do negócio. Já ouvi um depoimento triste de um data scientist que me confessou que na primeira reunião em sua nova empresa, o executivo chegou para o seu recém contratado grupo e disse “vocês são o futuro desta empresa. Vão para aquela sala legal ali, desenvolvam soluções de IA que sejam inovadoras e surpreendentes”. Se despediu e foi embora. Os profissionais de IA podem até gerar coisas surpreendentes, mas  como serão aplicadas ao negócio? Se não houver uma forte interligação e engajamento mútuo dos executivos e responsáveis pelos negócios e o pessoal de IA, será apenas um exercício de frustração.

Mas uma questão ainda é pouco abordada nas iniciativas de IA: o treinamento adequado dos algoritmos e a eliminação de vieses que podem distorcer resultados e gerar não apenas frustração, mas um problema de imagem e descrédito para a empresa. A grande maioria dos projetos da IA ​​já se baseia nos algoritmos de Deep Learning. Esses algoritmos podem impactar a vida das pessoas e, se aprenderem errado, podem perpetuar injustiças na contratação, na análise de crédito ou aprovação de um seguro saúde. Isso pode acontecer se a base e o processo de treinamento forem enviesados, distorcendo o processo de aprendizado do algoritmo. Bem, não é suficiente saber que esse viés existe. Se quisermos evitá-lo, precisamos entender a mecânica de como ele aparece.

Costumamos resumir nossa explicação sobre o viés da IA culpando os dados pelo treinamento tendencioso. A realidade pode ser mais sutil: os preconceitos podem surgir muito antes de os dados serem coletados, bem como em muitas outras etapas do processo de treinamento.

Vamos começar pelo início: a definição e o enquadramento do problema a ser resolvido com IA. A primeira coisa que os engenheiros de Machine Learning fazem quando criam um modelo de Deep Learning é definir até onde ele pode avançar nas suas decisões. Uma empresa de cartão de crédito, por exemplo, pode querer prever a qualidade de crédito de um cliente, mas "credibilidade" é um conceito bastante nebuloso. Para transformá-lo em algo que possa ser calculado, a empresa deve decidir se quer, por exemplo, maximizar suas margens de lucro ou maximizar o número de empréstimos que serão honrados. A partir daí pode então definir a qualidade de crédito dentro do contexto desse objetivo. O problema é que essas decisões são tomadas por várias razões de negócios, e às vezes, não sabemos até onde ir.  Um algoritmo de Deep Learning é uma caixa preta, e suas decisões variam de condição para condição. Por exemplo, se o algoritmo descobrir que distribuir empréstimos subprime é uma maneira eficaz de maximizar o lucro, pode acabar se engajando em um comportamento predatório, mesmo não sendo essa a intenção da empresa.

Depois temos a etapa de identificação e coleta dos dados. Existem duas maneiras pelas quais uma distorção pode aparecer nos dados de treinamento: ou os dados que você coleta não são representativos da realidade ou refletem os preconceitos existentes. O primeiro caso pode ocorrer, por exemplo, se o algoritmo for alimentado com mais fotos de rostos de pele clara do que com rostos de pele escura. O sistema de reconhecimento facial resultante seria inevitavelmente pior no reconhecimento de rostos de pele mais escura. O segundo caso é precisamente o que aconteceu quando a Amazon descobriu que sua ferramenta interna de recrutamento dispensava candidatas do sexo feminino. Por ter sido treinado com base nas decisões históricas de contratação, o que favorecia os homens em detrimento das mulheres, o algoritmo aprendeu a fazer o mesmo. A Amazon desativou o sistema, mas gerou uma propaganda negativa:  “Amazon reportedly scraps internal AI recruiting tool that was biased against women”.

Uma terceira chance de inserir viés se dá ao preparar os dados, que envolve selecionar quais atributos você deseja que o algoritmo considere. Isso não deve ser confundido com a etapa anterior de enquadramento do problema. Você pode usar os mesmos atributos para treinar um modelo para diferentes objetivos ou usar atributos diferentes para treinar um modelo para o mesmo objetivo. Na modelagem, um "atributo "poderia ser a idade do cliente, outro a sua renda, ou ainda o número de empréstimos que ele obteve em determinado período de tempo. No caso da ferramenta de recrutamento da Amazon, um "atributo" poderia ser o gênero do candidato, seu nível de escolaridade ou seus anos de experiência. Isso é o que as pessoas costumam chamar de "arte" do treinamento do algoritmo: a escolha de quais atributos considerar ou ignorar pode afetar significativamente a precisão da previsão do modelo. Mas embora seu impacto na precisão seja até fácil de medir, seu impacto no viés do modelo não é.

O problema é que quando você descobre que o algoritmo está enviesado é difícil corrigi-lo. No caso da Amazon, quando os engenheiros descobriram que sua ferramenta penalizava as candidatas, eles a alteraram para ignorar explicitamente as palavras de gênero como "mulheres". Logo descobriram que o sistema revisado ainda estava aprendendo implicitamente palavras de gênero, através de verbos altamente correlacionados com homens e mulheres, usando isso para tomar suas decisões. Em outras palavras, os algoritmos de Deep Learning captam padrões que simplesmente deixamos de considerar. Lembram que mencionei ser uma caixa preta? Portanto, teste seu algoritmo não apenas para eficiência, mas para evitar que embuta qualquer viés. Não é simples e deve ser um dos principais pontos de atenção das iniciativas de IA.

OK, já falamos em compreensão e competência. Falta uma terceira variável: uma cultura que permita e incentive a inovação. Iniciativas de IA não têm garantia de resultado. O que significa cultura de inovação? Imaginemos uma aplicação de IA que permita criar um novo serviço que afete a “cash cow” atual do negócio. Sem um engajamento e suporte da C-suite, o resultado de curto prazo (manter a receita com o serviço ou produto atual) não dará vez ao novo serviço. Um problema muito comum nas empresas não é ignorar o novo, mas manter o modelo atual por tempo demais. Para que a IA otimize de forma significativa as atuais operações será necessário o redesenho organizacional, mudanças de perfis nos profissionais e até mesmo demissões. Quem “banca” esta mudança? O grupo de engenheiros de Machine Learning?

Uma empresa ágil do século 21 pode ser autônoma ou quase autônoma, quebrando todos os paradigmas de modelos organizacionais que adotamos hoje, legado da era industrial. Recomendo enfaticamente a leitura do livro “Smart Business: what Alibaba´s sucess reveals about the future of strategy”, de Ming Zeng, chairman do Alibaba Group. Em tempo, na DataH temos um projeto, o Ziggy Stardust, que objetiva gerenciar de forma autônoma, por algoritmos, até 70% dos processos de back-office até fins de 2020.

E aqui lembro que criar uma iniciativa isolada de IA é até relativamente fácil, desde que as variáveis vistas anteriormente sejam atendidas. A dificuldade está em permear IA pela organização. Um projeto, mesmo que bem-sucedido, terá pouco resultado na corporação como um todo. Como tornar IA ubíqua na empresa?

O Google adota a estratégia de “AI First”, que significa colocar IA em tudo que for possível. Por exemplo, em vez de usar IA para melhorar seus mecanismos de busca, ela usa as buscas para melhorar sua IA. Cada vez que você pesquisa no site e clica em um link está treinando a IA do Google. O blog do Google explica isso em “Introducing Google AI”. A expectativa do Google é a de que com mais dez anos de melhoria contínua em seus algoritmos, mil vezes mais dados e cem vezes mais capacidade computacional, ele terá uma IA inigualável. Nas palavras de seu CEO, Sundar Pichai, “em 2026, o principal produto da empresa não será mais a busca, mas a IA”.

A conclusão é simples, mas dramática. Os avanços na IA e na robótica estão impulsionando uma nova era de automatização inteligente, que será um importante motor de desempenho empresarial nos próximos anos. Afeta empresas, empregos, sociedade e a economia. Obriga a revisão da atual formação educacional, e demanda fortes ações por parte de governos e das empresas. É essencial que as corporações de todos os setores de negócio compreendam seu impacto potencial ou ficarão para trás. IA não é coisa de nerd ou de cientistas, mas deve estar nas reuniões do CEO e do board das organizações. Se isso ainda não está acontecendo na sua empresa, creio que já existe um bom motivo para se preocupar!

 

(*) Cezar Taurion é partner da Kick Ventures e presidente do i2a2, Instituto de Inteligência Artificial Aplicada

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail