Home > Tendências

Como aumentar a confiança na inteligência artificial?

Auditoria humana orientada à tecnologia pode ajudar a evitar vieses do algoritmo

Carl Schonander, CIO (EUA)

14/08/2019 às 8h00

Foto: Shutterstock

A inteligência artificial (IA) tem sido alvo de debates em todo o mundo, principalmente por conta do viés algorítmico. Para os especialistas, uma forma de lidar com a questão é impondo as decisões humanas.

Auditoria, explicabilidade, transparência e replicabilidade (reprodutibilidade) são frequentemente sugeridas como meios de evitar os vieses. A auditabilidade e a explicabilidade estão provavelmente mais adiantadas no sentido prático, e às vezes podem se sobrepor de maneiras interessantes.

As auditorias - pelo menos por enquanto - podem ser o melhor caminho em muitos casos. Ou seja, a verificação da aderência aos controles exigidos por leis, regulamentos e melhores práticas. Para isso, os objetivos da empresa devem ser definidos com precisão. Na IA, existem diferentes tipos de preconceitos, como viés de confirmação, viés de medição e outras formas que impactam as conclusões a partir dos dados coletados.

A explicabilidade é intrinsecamente desafiadora, já que as explicações geralmente são incompletas. Na verdade, falar de maneira simples e clara sobre algoritmos já é difícil. Tomemos, por exemplo, algoritmos usando metodologias “ensemble”. Explicar como um modelo funciona é bastante complicado. Explicar como vários modelos funcionam individualmente e juntos é exponencialmente ainda mais desafiador. Mas existem algumas novas ferramentas interessantes no mercado que podem ajudar.

A transparência geralmente é uma prática positiva. No entanto, se for necessário divulgar o código-fonte ou os detalhes de engenharia que sustentam um aplicativo de IA, a medida poderá gerar preocupações sobre a propriedade intelectual.

A replicabilidade ou reprodutibilidade envolve a medida em que um processo de tomada de decisão por IA pode ser repetido com o mesmo resultado, mas a abordagem traz alguns problemas, como a ausência de padrões universais que regem as técnicas de coleta, curadoria e processamento de dados para permitir tal replicabilidade.

Como aumentar a confiança na inteligência artificial

Em 2018, a Associação de Controle e Auditoria de Sistemas de Informação (ISACA) lançou um white paper intitulado “Auditing Artificial Intelligence” (Inteligência Artificial em Auditoria), que fornece algumas ideias sobre como conduzir as auditorias. Um aspecto importante é que os processos não precisam ser de natureza particularmente técnica. Em vez disso, os auditores devem “se concentrar nos controles e nas estruturas de governança existentes e determinar se estão operando de maneira eficaz. Os auditores podem fornecer alguma segurança, focando-se nos aspectos de negócios e governança de TI.”

A partir do white paper da IASCA, uma forma de conduzir uma auditoria externa pode ser verificando se as empresas realmente instituíram uma estrutura para o uso responsável de dados, particularmente no contexto da evitação de vieses. Como seria esse quadro? Abaixo, uma sugestão de caminho a seguir:

  • Encontrar maneiras afirmativas de usar dados para garantir a justiça para grupos historicamente carentes;
  • Garantir a aplicação da não-discriminação / direito do consumidor ao uso da análise de dados;
  • Fornecer indicação dos tipos de fatores que entram nos algoritmos na tomada de decisão;
  • Desenhar a partir de metodologias de análise de impacto díspares para conduzir avaliações internas;
  • Desenvolver padrões de justiça para responder a avaliações internas.

De acordo com os especialistas, verificar ou auditar as empresas contribuirá para garantir que a IA seja usada de maneira não discriminatória.

Explicabilidade

Há muitos trabalhos interessantes acontecendo com relação à explicabilidade também. E parte disso se sobrepõe à capacidade de auditoria. A Cornell University, por exemplo, desenvolveu a ideia de produzir modelos de cartões para sistemas de aprendizado de máquina em um artigo intitulado “Model Cards for Model Reporting”. ”A ideia é que os modelos de aprendizado de máquina tenham um 'cartão de modelo', incluindo informações sobre detalhes do sistema; uso pretendido; fatores como demografia no desenvolvimento do modelo; métricas; dados de avaliação; dados de treinamento; análise quantitativa; considerações éticas; mitigações; riscos e danos potenciais; e informações sobre casos de uso potencialmente arriscados.

Um artigo recente da Forbes entitulado como “Future of Explainable AI” também fornece algumas informações interessantes sobre os desenvolvimentos da explicabilidade. Os pesquisadores exploram detalhes nos modelos "E se uma ferramenta" do Google para plataforma de IA na nuvem. Veremos como essa ferramenta é usada na prática, mas há uma promessa de permitir que os analistas dividam conjuntos de dados por recursos (como idade) e comparem o desempenho entre essas variáveis, o que pode ser útil em investigações de imparcialidade de aprendizado de máquina.

Para os próximos anos, a expectativa é de que sejam disponibilizadas diversas ferramentas para ajudar com auditorias e explicações. É difícil garantir qual dos dois métodos será mais importante - ambas terão papel na melhoria da confiança do público em relação à IA.

 

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail