Recursos/White Papers

Gestão

As empresas e a ascensão da Economia da Empatia

A Inteligência Artificial pode detectar emoções humanas melhor do que as pessoas. É hora de se emocionar com a IA

Mike Elgan, CIO/EUA

Publicada em 25 de julho de 2018 às 12h01

O mundo dos negócios está ficando emocional.

Interfaces de usuário e outros aspectos da computação corporativa estão sendo cada vez mais projetados para detectar estados emocionais ou humores dos usuários, e também para simular emoção quando eles se comunicam com esses  usuários.

Um relatório do Gartner,  publicado em janeiro, afirma que dentro de quatro anos, os dispositivos digitais que usamos  "saberão mais sobre seu estado emocional do que sobre sua própria família".

O Deep Learning aprimorou a detecção de emoções, desde emoções básicas como felicidade, surpresa, raiva, tristeza, medo e nojo até mais de 20 emoções mais sutis que incluem admiração, surpresa e ódio. (Psicólogos dizem que as pessoas têm 27 emoções diferentes).

A Universidade de Ohio desenvolveu um programa que reconhece 21 emoções baseadas em expressões faciais em fotografias. Aqui está a parte chocante: os pesquisadores afirmam que seu sistema é melhor que os humanos para detectar essas emoções.

Há uma boa razão e uma ótima razão para interfaces emocionais na empresa.

Primeiro, o bom motivo.

Empatia impulsiona negócios
A “economia de empatia” é o valor monetário ou comercial criado pela IA capaz de detectar e simular a emoção humana. Uma capacidade que transformará o atendimento ao cliente com o uso de assistentes virtuais, robótica, segurança, etc.

Uma pesquisa recente, realizada pela Frost & Sullivan, revelou que 93% das pessoas pesquisadas disseram que as interações de atendimento ao cliente têm um impacto sobre sua percepção de uma empresa. E a empatia é um dos fatores-chave nas interações de qualidade, de acordo com a consultoria.

O software de IA da Cogito, que é baseado extensivamente na pesquisa de ciência comportamental do Laboratório de Dinâmica Humana do MIT, analisa o estado emocional dos clientes e dá feedback instantâneo aos agentes do call center, permitindo que eles sintam melhor as reações dos clientes.

Esse tipo de tecnologia dá aos funcionários da central de atendimento superpoderes de empatia, o que poderia melhorar muito a percepção pública de uma empresa.

Empresas como a Affectiva e a Realeyes oferecem soluções baseadas em nuvem que usam webcams para rastrear expressões faciais e frequência cardíaca. Um uso possível é a pesquisa de mercado (os consumidores assistem a anúncios e a tecnologia detecta como eles se sentem em relação às imagens ou palavras nos anúncios).

As empresas estão procurando expandir-se para outros campos, como a saúde, onde os call centers automatizados podem detectar depressão ou dor na voz do cliente, mesmo que o interlocutor não as expresse verbalmente.

Um robô chamado Forpheus , criado pela japonesa Omron Automation e demonstrado na CES em janeiro, joga pingue-pongue. Parte do seu arsenal de habilidades de tênis de mesa é a sua capacidade de ler a linguagem corporal para descobrir tanto o humor quanto o nível de habilidade de seu oponente humano.

O ponto do robô não é o pingue-pongue, mas máquinas industriais que trabalham “em harmonia” com os humanos, aumentando a produtividade e a segurança. Ao ler a linguagem corporal dos trabalhadores da fábrica, por exemplo, os robôs industriais poderiam antecipar como e onde as pessoas poderiam se deslocar.

Robôs como o Sanbot, da Qihan Tecnologia o Pepper, da SoftBank Robotics' e o 3E-A18, da Honda, existem para ajudar as pessoas de maneiras gerais, essencialmente agindo como centrais de informações em aeroportos, shoppings, hotéis e outros locais. Eles são construídos para entender e imitar as emoções humanas, para que possam fornecer respostas mais satisfatórias para quaisquer questões colocadas. Esses robôs podem ler a linguagem corporal, padrões de voz e expressões faciais para descobrir como o usuário está se sentindo ou se o usuário está confuso.

Outra aplicação importante e óbvia para a detecção de emoções é em carros e caminhões. Ao usar sensores biométricos e câmeras em painéis, bancos ou cintos de segurança, a Inteligência Artificial on-board pode dizer se um motorista está estressado ou cansado demais para dirigir. Carros detectores de emoções poderiam reduzir os acidentes e reduzir os prêmios de seguro.

A Ford, por exemplo, está trabalhando com a UE para desenvolver  um sistema assim.

A detecção de emoções não é apenas a análise de fotos, vídeos e linguagem falada.

O Watson da IBM possui um recurso “ Tone Analyzer ” que pode detectar emoções e até mesmo sarcasmo na comunicação escrita.

Embora as aplicações para a IA no campo da detecção de emoções sejam inúmeras na empresa, o público as encontrará primeiro nas esferas do consumo.

Recentemente, o Facebook concedeu patentes para “detectar filtros de selfie com emoção”. A ideia é selecionar automaticamente uma “máscara” apropriada para selfies com base na emoção detectada na foto. Por exemplo, se a pessoa parece triste, o filtro padroniza as lágrimas de desenho animado. Sema pessoa que parece feliz recebe o filtro "Panda feliz".

Um videogame chamado Nevermind usa o biofeedback para detectar o humor dos jogadores e ajustar o nível de dificuldade de acordo - fica mais difícil quanto mais o jogador fica com medo. 

Estas são aplicações triviais, mas ajudarão a adaptar o público à ideia de software que detecta emoções.

No Reino Unido, o governo está usando um serviço chamado G-Cloud 10, construído especificamente pela FlyingBinary e pela Emrays, para colocar o dedo no pulso da população com base nas emoções detectadas nas postagens e nos comentários das redes sociais.

E para as pessoas que vivem na China, o primeiro encontro com esses sistemas pode ser já na escola. Em março, uma escola na China acrescentou câmeras a salas de aula que usam IA para monitorar os estados emocionais de todos os alunos. (O sistema também atende e rastreia o que as crianças estão fazendo a cada momento.) Ele até avalia os alunos sobre o quanto estão distraídos (uma versão do conceito de “facecrime”, de Orwell). As crianças precisam não só prestar atenção, mas também parecer estar prestando atenção.

Emoção e empatia impulsionam os negócios de várias maneiras. Essa é a boa razão para essa tecnologia.

Aqui está o maior dos motivos.

empatia

A emoção é necessária para comunicação
IA e robôs são máquinas, mas as pessoas não são.

É um equívoco generalizado pensar que o conteúdo de nossas palavras é a soma total da comunicação humana. De fato, as pessoas se comunicam com palavras, entonações vocais, expressões faciais, gestos com as mãos e linguagem corporal.

É por isso que os e-mails estão repletos de falhas de comunicação. Sem pistas não-verbais, muito do significado pretendido é perdido.

Na vasta história da computação, a tendência perpétua é a seguinte: à medida que os computadores se tornam mais poderosos, grande parte dessa energia é aplicada para fazer com que os computadores trabalhem mais pela qualidade da interação entre a máquina e o usuário.

Era uma vez, a “interface” formada por switches, cartões perfurados e fita. O humano teve que trabalhar duro para falar a linguagem binária dos computadores. Avanço rápido através da linha de comando, a interface gráfica e as interfaces de linguagem falada. A cada passo, as máquinas trabalham mais para facilitar a interface com os humanos.

O problema é que as atuais interfaces de voz não conseguem satisfazer, porque essencialmente estão lidando exclusivamente com as palavras, e não com as pistas não-verbais. Quando você fala com um assistente virtual, por exemplo, cada palavra da sua fala é convertida em texto e é o texto que é analisado. No futuro, o texto e as entonações vocais serão processados juntos  ​​para derivar significado e contexto.

O benefício mais poderoso da IA  é que a interação homem/máquina envolverá cada vez mais comunicação verbal e não-verbal, o que melhorará a compreensão de ambos os lados.

O uso mais interessante para detecção e simulação de emoções pode estar em nossos assistentes virtuais diários. Futuras versões do Siri, Google Assistant, Alexa e Cortana irão interpretar a interação de forma diferente com base na emoção do usuário.

O sistema de câmera do iPhone X e os recursos do Face ID abriram as portas para a detecção de emoções de alta qualidade por smartphones. Agora, toda a indústria está trabalhando rapidamente para telefones empáticos.

A maior fabricante de smartphones da China, a Huawei, está trabalhando na atualização de seu assistente virtual (que atualmente conta com 110 milhões de usuários, segundo a empresa) usando um sistema que usa IA para detectar as emoções dos usuários.

Todos os principais fabricantes de assistentes virtuais - Apple, Amazon, Google, Samsung - estão trabalhando febrilmente para melhorar a interação de voz com sensores e simuladores de emoção baseados em IA.



Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui