Home > Tendências

É preciso evitar a ditadura dos algoritmos

Apesar das promessas, os benefícios concretos da AI ainda são apenas moderados

Paulo Eduardo Brugugnoli*

16/05/2019 às 10h17

Foto: Shutterstock

Assim como um jovem que se aproxima da maturidade, a inteligência artificial (AI) entra em sua adolescência promovendo forte disrupção por onde é empregada, mas gera preocupações e angústias, comuns aos pais dos jovens adolescentes.

Apesar das promessas, os benefícios concretos da AI ainda são apenas moderados. Ainda assim, a jovem AI passa por um forte e acelerado processo de adoção, cujo uso cada vez mais abrangente promete gerar um valor adicional à economia global de US$ 13 trilhões ao ano, em dez anos.

A jovem AI herda muitas das suas características e perigos associados à suas origens e sobre as quais se baseia: as enormes bases de dados (big data) e a análise de dados (data mining). O armazenamento, a privacidade e o uso das informações são motivos para discussões éticas acaloradas. Como se não fosse suficiente, às estas características e perigos se somam outras preocupações, não menores, como o risco da perda de controle e a qualidade das decisões tomadas sem a intervenção humana.

O fato é que vivemos na idade dos algoritmos e devemos chavear nossas preocupações sobre o acesso e proteção dos dados para o seu melhor uso. Temas como o acesso e a proteção dos dados passam a ser menores, não menos importantes, entretanto, quando comparados com o potencial impacto que o uso indevido dos dados e algoritmos podem gerar.

O livro “Weapons of Math Destruction”, de Cathy O’Neil já alertava em 2016 quanto ao uso de modelos matemáticos puros, sem a intervenção humana, na tomada de decisões. “Estes modelos tendem a ser opacos, não regulados, e impossíveis de serem contestados mesmo quando estão incorretos, podendo levar a discriminação, a modelos viciosos que tendem a aumentar as diferenças sociais, de educação e de oportunidades em um verdadeiro “cocktail tóxico para a democracia”.

Os riscos ficam evidentes quando algoritmos tomam decisões com base em padrões que buscam a maximização dos resultados de um negócio baseado no cruzamento do enorme volume de dados disponíveis (big data, data mining e IA). Gostaria de citar apenas alguns poucos exemplos do risco ora discutido:

  • Quando um algoritmo define regras de financiamento que permitem acesso a capital para aqueles indivíduos que não teriam dificuldade em obtê-lo e negam por completo o acesso a aqueles indivíduos cujo empréstimo seria realmente importante.
  • Quando um algoritmo distorce as chances de um indivíduo ter acesso à educação superior de qualidade ao ranquear quem será aceito em uma universidade.
  • Quando um algoritmo nega o acesso a uma cobertura de um plano de saúde ao prever que o indivíduo tem um risco elevado de desenvolver alguma doença.
  • Quando um algoritmo invade a privacidade de um indivíduo ao explorar sua condição - o exemplo icônico é o caso da rede americana TAG que passou a promover produtos para gestantes a uma adolescente cujos pais ainda não conheciam a condição da sua filha.

Em resumo, o uso indiscriminado de dados e modelos matemáticos na forma de AI sem intervenção humana ou sem controle é capaz de invadir a privacidade, amplificar a concentração de riqueza e oportunidade nas mãos de um limitado conjunto de indivíduos, aumentar as diferenças e injustiças sociais e, finalmente, de não se produzir o bem.

Há ainda uma segunda leva de riscos e desafios associados à adoção da AI com impactos igualmente perigosos à sociedade:

  • O desaparecimento de empregos à medida que atividades podem ser automatizadas através do uso de robôs e AI.
  • A atrofia de competências nos médio e longo prazos à medida que soluções especializadas comecem a substituir humanos. Por exemplo, à medida que sistemas inteligentes são capazes de fazer a leitura cada vez mais precisa de exames médicos existe o risco de que os médicos deixem de aprender ou se esqueçam como fazê-lo e, neste momento, perderemos o controle e a capacidade de criticar a AI.
  • Ao perder o controle, estaremos cada vez mais expostos aos eventuais erros de avaliação, aos danos de imagem, às perdas de receita e a diminuição da confiança na própria tecnologia.

A Comissão Europeia lançou recentemente sete diretrizes éticas para a Inteligência Artificial, propondo algumas precauções no desenho e implementação desta solução, minimizando seus riscos enquanto aprendemos a incorporá-las em nossas vidas. Confira a seguir:

Bem-estar social e ambiental

Os sistemas de IA devem ser pensados, desenhados, implementados e usados para melhorar a mudança social positiva e aumentar a sustentabilidade e a responsabilidade ecológica.

Diversidade, não discriminação e equidade

Os sistemas de AI devem considerar toda a gama de habilidades e requisitos humanos e garantir a acessibilidade.

Intervenção e supervisão humana

Os sistemas de AI devem possibilitar sociedades equitativas, apoiando a ação humana e os direitos fundamentais, e não diminuir, limitar ou desorientar a autonomia humana.

Robustez e segurança

A AI confiável requer que os algoritmos sejam seguros, confiáveis e robustos o suficiente para lidar com erros ou inconsistências durante todas as fases do ciclo de vida dos sistemas de IA.

Transparência

A rastreabilidade dos sistemas de IA deve ser assegurada.

Privacidade e governança de dados

Os cidadãos devem ter controle total sobre seus dados, para que não sejam usados para prejudicá-los ou discriminá-los;

Prestação de contas

Mecanismos devem ser colocados em prática para garantir a responsabilidade pelos sistemas de AI e seus resultados.

Não existe uma solução única para os riscos e perigos da AI assim como parece não haver limites para os benefícios que a AI pode trazer ao mundo. Temos que aprender a utilizá-la com responsabilidade e sabedoria, integrando-a em nossas vidas e negócios sem jamais perder o controle.

*Paulo Eduardo Brugugnoli é Global CTO do gA

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail