Home > Tendências

A Inteligência Artificial tem dois lados. Depende de nós escolher o certo

A crescente dependência que temos de IA e seus algoritmos nos obriga a prestar muita atenção ao seu uso e a qualidade do seu treinamento

Cezar Taurion *

29/05/2018 às 17h10

IA_323150195.jpg
Foto:

Acabei de ler um relatório de extrema importância, “The Malicious Use
of Artificial  Intelligence: Forecasting,
Prevention, and Mitigation
”, que em suas 100 páginas aborda os potenciais
riscos de utilização, de forma inadequada, das tecnologias de Intelifência Artificial. Sabemos, por
experiência própria, que o treinamento de algoritmos influencia o processo de decisão
das redes neurais.

Um estudo do MIT - “Facial
recognition software is biased towards white men, researcher finds
” -  mostrou
que, baseado no aprendizado fornecido pelas imagens apresentadas,
alguns algoritmos de reconhecimento facial reconheciam com mais precisão rostos
de homens brancos. O algoritmo não era machista ou racista. Simplesmente
aprendeu a reconhecer com mais precisão este rostos pois mais imagens de homens
brancos lhes foi fornecido. Uma outra  experiência
do MIT, Norman,
criou o primeiro algoritmo de IA com
viés psicopata. A proposta foi mostrar que um treinamento inadequado pode gerar
respostas completamente absurdas. O culpado não é o algoritmo,
mas a base de dados usada no seu treinamento.

O crescente uso da IA nos obriga a prestar atenção aos
resultados que os algoritmos nos darão, pois mais e mais estarão afetando
nossas vidas. Além disso, mecanismos extremamente seguros de segurança devem
ser colocados em prática para que sistemas de IA não sejam afetados por ataques
cibernéticos. Hoje, os sistemas de IA executam apenas uma parte relativamente
pequena das tarefas que os seres humanos são capazes de fazer. No entanto,
mesmo essa pequena parte tem impactos significativos na vida das pessoas. Por
exemplo, na área médica, onde pouco a pouco tarefas repetitivas feitas por
humanos passam a ser feitas por algoritmos. Isso está bem demonstrado no artigo
London
hospitals to replace doctors and nurses with AI for some tasks
”. No futuro,
espera-se que os sistemas de IA excedam o desempenho dos seres humanos mais
talentosos, em tarefas bem específicas.

Todas novas tecnologias nos ajudam a resolver problemas
existentes, mas também geram novos desafios. A IA cria espaço para riscos de
segurança que não eram possíveis antes. Os sistemas de IA podem imitar as vozes
das pessoas de forma realista, criando arquivos de áudio que se assemelham a
gravações de discursos humanos. Assim, ficaria bem difícil para um humano
conseguir identificar se o que ele está ouvindo veio de alguma pessoa ou foi
gerado artificialmente por sistemas de IA. As consequências podem ser bastante
dramáticas. Portanto, não é à toa que diversos estudos começam a se debruçar
sobre o assunto.

Um artigo interessante é “How
Will Artificial Intelligence Affect the Risk of Nuclear War?
. nele o autor
levanta algumas questões sobre o uso de IA nas forças armadas. Se um algoritmo
de Machine Learning que examina os céus para lançamentos nucleares pudesse
ser enganado, ele poderia alimentar os humanos que estivessem no controle com
informações incorretas. Embora muitas vezes o erro humano possa ser o maior
risco, confiar excessivamente em sistemas automatizados e algoritmos pode ser
catastrófico.

O estudo da Rand, “How
Artificial Intelligence Could Increase the Risk of Nuclear War
, aprofunda o
tema. O assunto é de extrema importância e uma análise bem detalhada pode ser
encontrada em “Artificial
Intelligence and National Security
, produzida pela Harvard Kennedy School.
A conclusão do estudo é que os avanços na IA afetarão a segurança nacional dos
EUA ( e de todos os países) ao impulsionar a mudança três áreas: superioridade
militar, superioridade da informação e superioridade econômica.

Ainda estamos no início da evolução da IA.  E o que devemos esperar daqui para a frente?

Antes de mais nada, não pensemos linearmente. A evolução das tecnologias
digitais e da IA é exponencial e avanços radicais serão sentidos em pouco
tempo.  Exemplos de pensamento
exponencial são os próprios sistemas de IA sendo usados para criar futuros
sistemas de IA. Como seria um sistema de IA que evoluísse automaticamente, por
auto aprendizado? Uma máquina que alcançasse e um QI elevadíssimo, como agiria?
Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no
aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500?
Não temos a mínima ideia do que poderia ser gerado por tal capacidade.

Não tenho dúvidas de que o forte impacto da IA na sociedade,
nas empresas e nas profissões é um assunto de extrema importância. Já em 2016, o
Fórum Econômico Mundial publicou um relatório instigante, intitulado “The Future of Jobs:
Employment, Skills and Workforce Strategy for the Fourth Industrial Revolution
”,
analisando os impactos da evolução tecnológica, onde a IA tem papel fundamental
no cenário futuro. O relatório lembra que provavelmente 65% das crianças que estão
nas escolas primárias hoje estarão trabalhando em funções completamente novas,
que simplesmente ainda não existem.

Sobre o Brasil, o relatório aponta algumas
barreiras desafiadoras como a ainda grande incompreensão das disrupções que já
estão surgindo (55% dos entrevistados), a falta de alinhamento da estratégia da
força de trabalho das empresas e, claro, dos órgãos públicos com as inovações
disruptivas (48%), e devido à crise econômica, à pressão dos acionistas pela
rentabilidade de curto prazo (48%).

Os algoritmos e as máquinas substituirão os
humanos? Em muitas funções sim. Muitas profissões existentes hoje deixarão de
existir. A profissão de motorista, por exemplo, não será uma que sobreviverá
muito mais que uma ou duas décadas. Comumente se diz que a IA destruirá
empregos, mas criará outros. É verdade, mas os empregos gerados não serão
necessariamente ocupados pelas pessoas que perderam os seus trabalhos.

No fim, teremos uma mudança significativa na relação
pessoas/máquinas e isso vai se refletir nas funções, academia e relações
trabalhistas. Recomendo a leitura do estudo “The
Future of Work: Jobs and skills in 2030
”, feito no Reino Unido, portanto em um
contexto diferente do brasileiro, mas que pode nos indicar alguns caminhos. Um
outro estudo, da McKinsey mostra claramente que o uso da IA vai demandar a
ênfase em skills por parte de nós, humanos, que deixamos de lado com a
sociedade industrial. Ficamos muito focados em especializações operacionais e
menosprezamos habilidades cognitivas como empatia, sociabilidade, criação e
emoção. Vale a pena ler “Skill
shift: Automation and the future of the workforce
”.

Vamos analisar funções que são tipicamente humanas, como as
que demandam capacidade de julgamento. As limitações atuais da IA nos levam a
crer que o julgamento humano não será automatizado tão cedo. Entretanto,
algoritmos podem melhorar o julgamento humano, buscando e reunindo fragmentos
de informações que estejam espalhados por inúmeras fontes, agregando-os de
forma que sejam úteis. Na área jurídica, por exemplo, onde muitas informações
sobre casos similares e jurisprudências, leis e regulamentos diversos, que
demandam exaustivas e quase sempre incompletas buscas por dezenas de advogados,
podem ser agregadas em poucos minutos por algoritmos de IA. 

Já na década de 50 do século passado, alguns estudos
mostraram que algoritmos computacionais conseguiam superar os
julgamentos humanos subjetivos. O psicólogo americano Paul Meehl documentou 20 estudos
que compararam as previsões de especialistas humanos com algoritmos preditivos
simples. Lembrem-se,  estamos falando de
computadores de sessenta anos atrás! Os estudos variaram desde a previsão de
como um paciente esquizofrênico responderia à terapia de eletrochoque até a
probabilidade de um aluno ter sucesso na faculdade. O estudo de Meehl mostrou
que em um de cada 20 casos analisados, os peritos humanos foram sobrepujados
por algoritmos simples. Pesquisas posteriores confirmaram as descobertas de
Meehl. Mais de 200 estudos compararam a previsão de algoritmos e de
especialistas, com algoritmos estatísticos quase sempre superando o julgamento
humano. Nos poucos casos em que os algoritmos não superaram os especialistas,
os resultados foram geralmente empates.

A razão, segundo os estudos é que os humanos tendem a
simplificar suas tomadas de decisão, baseando-se fortemente na intuição e em
experiências passadas. Funciona muito bem quando temos que tomar decisões
rápidas, como geralmente acontece às centenas durante o dia. Mas, quando a
decisão envolve uma análise mais criteriosa e demorada, isenta, com dados mais
abrangentes, como a contratação de um funcionário, a decisão enviesada pela
intuição, experiência pessoal e preconceitos acaba sendo prejudicada.

Esses resultados mostram que os humanos são dispensáveis?
Pessoalmente, não creio, pelo menos em um horizonte previsível. Embora algoritmos
possam superar o julgamento de especialistas, eles são direcionados a domínios
de conhecimento restritos.  Um algoritmo
treinado para traduzir textos de uma língua para outra não é capaz de
reconhecer imagens em uma fotografia e muito menos dirigir um veículo. Além
disso, o treinamento dos algoritmos depende da alimentação de dados gerados
pelos próprios especialistas, que acabam selecionando, pela sua intuição, o que
parece ser mais relevante. Isso, por si, já cria um viés para o algoritmo. 

Embora sistemas de IA possam automatizar muitas tarefas
rotineiras, é improvável que o julgamento humano seja, pelo menos nos próximos
dez a quinze anos, terceirizado para algoritmos. Mas, quando se fala em um
horizonte maior, como 2050, o cenário pode ser bem diferente! Um estudo realizado com pesquisadores de IA, aponta que uma máquina superinteligente - Human
Level Machine Intelligence (HLMI) – tem 10% de chance de aparecer por volta de
2020 e 50% em torno de 2050. Para 2100, a probabilidade é de 90%!

No curto prazo, entretanto, será mais realista usarmos de
forma colaborativa a IA para eliminar pré-conceitos embutidos nas intuições e
melhorar os julgamentos humanos. Quando os dados são abundantes e os aspectos
relevantes do mundo não estão mudando rapidamente, é adequado nos apoiarmos em
métodos estatísticos. Mas, quando pouco ou nenhum dado está disponível, a
inteligência coletiva pode ser usada para tirar o máximo proveito do julgamento
de especialistas. Por exemplo, o Google, uma típica empresa de IA, usa em
conjunto a "sabedoria da multidão" de humanos e métodos estatísticos
baseados em IA para melhorar as decisões de contratação, onde a filosofia é
"complementar os tomadores de decisão humanos e não substituí-los".

IA

A IA não envolve uma equação de soma zero, humanos versus
IA, mas humanos mais IA gerando mais inteligência. Claro que, para isso, temos
que nos preparar. A academia formando profissionais para novas funções nas
profissões existentes e para novas profissões. As empresas e a sociedade discutindo
os efeitos da IA nos seus negócios.

E isso nos leva de volta ao início do texto. A crescente
dependência que temos de IA e seus algoritmos nos obriga a prestar muita
atenção ao seu uso e a qualidade do seu treinamento. Um sistema de IA é um
conjunto de motores (algoritmos) e combustíveis (dados). Se  a qualidade do combustível for ruim, o motor
não vai funcionar adequadamente. É isso que a Harvard Business Review afirma em
If
Your Data Is Bad, Your Machine Learning Tools Are Useles
s
”. E complemento,
um sistema de IA mal protegido também pode ser uma ameaça, que só vamos
descobrir quando algo acontecer.

IA é uma tecnologia (ou ciência) bem poderosa.
Mas devemos saber usá-la. Como a energia nuclear pode ser uma arma de
destruição ou fornecer luz e vida para uma cidade, a IA tem dois lados. Depende
de nós escolher o lado certo.

 

 

(*) Cezar Taurion é partner da Kick Ventures e presidente do i2a2, Instituto de Inteligência Artificial Aplicada

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail