Home > Notícias

Diversidade ‘by design’ na inteligência artificial

Algoritmos de reconhecimento facial apresentam altas taxas de erro para etnias negra e asiática, mas diferença cai quando são desenvolvidos na Ásia

Bruna Borghi Tomé*, Clara Serva**, Sofia Gavião Kilmar***, Maru Arvigo****

09/09/2021 às 16h03

diversidade, inclusão, reconhecimento facial, pessoa negra
Foto: Shutterstock

Legenda: Imagem: Shutterstock

Nos últimos anos, surgiram normas
de proteção a dados pessoais mundo afora (como a LGPD no Brasil),
tornando comum no segmento de tecnologia a noção de “privacy by design”.
A expressão inglesa se refere ao desenvolvimento de produtos e de serviços
pautados no respeito à privacidade dos usuários, com os mecanismos
tecnológicos já saindo de fábrica norteados pela proteção de dados pessoais e
da privacidade de seus titulares. Igual noção “by design” deve ser aplicada em
prol da diversidade.

A tecnologia traz oportunidades importantes
no campo dos negócios, de incremento de qualidade em produtos e serviços, de
ganhos econômicos, de acesso à educação e ao conhecimento, de debate
democrático em livre manifestação de pensamento, de amplificação do alcance de
importantes iniciativas culturais e sociais, dentre inúmeras outras
possibilidades. A inteligência artificial se apresenta em todas essas
vertentes.

Feitas à semelhança do criador, as
tecnologias reproduzem também vicissitudes, dentre as quais a discriminação.
Diversos são os questionamentos quanto à forma por vezes incorreta pela qual os
algoritmos compreendem, interpretam e agem sobre o mundo físico. Brad Smith,
CEO da Microsoft, já deu a letra: “a tecnologia se tornou uma ferramenta e
um perigo”
.

Nos Estados Unidos, foi redobrada
a atenção ao tema desde que se identificou que a população negra é alvo de
falhas em algoritmos de reconhecimento facial. Em abril de 2021, a ACLU (União
Americana pelas Liberdades Civis) e a University of Michigan Law School’s Civil
Rights Litigation Initiative (CRLI) propuseram ação federal em defesa de Robert
Williams, cidadão negro de Detroit preso injustamente em agosto de 2020 após o
sistema de reconhecimento facial do Departamento de Polícia de Detroit tê-lo
erroneamente reconhecido como criminoso.

No Brasil, pesquisa da Rede de
Observatórios de Segurança monitorou os casos de prisões e abordagens com o uso
de reconhecimento facial entre março e outubro de 2019, em quatro estados
brasileiros. Entre os casos com informações sobre raça e cor ou com imagem dos
abordados (42 casos), 90,5% das pessoas eram negras e somente 9,5% eram
brancas.

O National Institute of Standards
and Technology de 2019 realizou levantamento demográfico em busca de falsos
positivos (o rosto de uma pessoa é reconhecido em duas pessoas diferentes) e
falsos negativos (algoritmo que não reconhece uma pessoa em imagens de si).
Concluiu que algoritmos de reconhecimento facial apresentam uma taxa de erros
de falso positivo de 10 a 100 vezes maior nas etnias negra e asiática se
comparada à caucasiana. A diferença, conclui o estudo, não é tão dramática
quando os algoritmos são desenvolvidos em países asiáticos, permitindo atribuir
a redução da discriminação (que nada tem de artificial) à representatividade
dos diferentes grupos no desenvolvimento dos produtos.

A Convenção Interamericana contra
o Racismo, Discriminação Racial e formas Correlatas de Intolerância, ratificada
pelo Brasil em maio de 2021, dispõe em seu art. 1, item 1, que discriminação
racial é qualquer distinção “cujo propósito ou efeito seja
reduzir o reconhecimento ou exercício de direitos. Da mesma forma, a Lei
Brasileira de Inclusão da Pessoa com Deficiência, conceitua em seu art. 3º, IV,
que barreiras tecnológicas são aquelas que “dificultam ou impedem o acesso
da pessoa com deficiência às tecnologias”
. Esses documentos evidenciam que
os impactos negativos do uso da tecnologia em determinados grupos implicam,
pela lupa dos Direitos Humanos, na chamada discriminação indireta.

Contudo, existem iniciativas importantes
remando rumo à diversidade, by design, em matéria de inteligência
artificial. A Open AI publicou estudo em junho de 2021 em que alega ter
descoberto uma maneira de melhorar o comportamento de modelos de linguagem em
relação aos valores éticos, morais e sociais. Os pesquisadores apontam
significativas melhorias na criação de um novo repositório, o Processo para
Adaptação de Modelos de Linguagem à Sociedade (PALMS). Em síntese, o
comportamento adequado do modelo de linguagem de programação reduz os vieses de
gênero, raça ou religião.

Acessibilidade por design se vê na
startup brasileira Hand Talk, que traduz simultaneamente conteúdo de vídeo e
texto em português para a língua brasileira de sinais, o que permite a inclusão
de pessoas com deficiência visual através da acessibilidade digital. No Desafio
de Impacto em IA de 2019, o Google premiou a startup entre as iniciativas
globais tecnológicas de impacto social.

Quando a diversidade está presente
no processo de desenvolvimento de tecnologia (e de inteligência artificial), o
resultado são produtos e serviços com maior acurácia, eficiência e potencial de
mercado.

A diversidade se apresenta como
premissa e parte essencial do processo de pesquisa e desenvolvimento, assim
como se instituiu para a proteção de dados pessoais. Deve haver também
diversidade by design, no desenvolvimento de produtos e serviços em
tecnologia de inteligência artificial, e não mera adaptação destes a partir de
constatações de comportamento discriminatório.

O argumento nesse sentido é também
jurídico. Um dos pilares do tripé ASG (“Ambiental, Social & Governança
Corporativa”) diz respeito aos Direitos Humanos (o “S”) em todas as dimensões
da atividade empresarial, dentre as quais a atenção aos impactos da
atividade-fim. É o que recomenda o Conselho Nacional dos Direitos Humanos
(artigos 2º, § 3º, e 6º, XII e XIV, da Resolução nº 05/2020). Fica claro que,
para desenvolver produtos atentos à pluralidade de usuários e consumidores, é
necessário que tais grupos estejam devidamente representados em seu processo de
desenvolvimento e produção.

A conclusão é uma: diversidade by
design
se mostra indispensável. É primordial que as instituições se
organizem para refletir em suas cadeias produtivas (e, portanto, no público
interno), pluralidade e diversidade. Avança-se, assim, rumo ao desenvolvimento
de tecnologias de inteligência artificial que tenham por traço definidor, cada
vez mais, diversidade e inclusão.

* Bruna Borghi Tomé é sócia de
Cybersecurity & Data Privacy do TozziniFreire Advogados

** Clara Serva é head de
Empresas e Direitos Humanos do TozziniFreire Advogados

*** Sofia Gavião Kilmar é advogada
na área de Contencioso de TozziniFreire Advogados

**** Maru Arvigo é assistente
jurídico do Programa de Inovação de TozziniFreire Advogados