Recursos/White Papers

Notícias

Você precisa saber que a Baleia Azul pode ser um novo tipo de ameaça digital

É possível que bots sociais, baseados em computação cognitiva, estejam simulando gurus humanos curadores dos desafios, segundo o CTO da Aker N-Stalker

Da Redação

Publicada em 21 de abril de 2017 às 10h20

Pessoas do mundo inteiro acompanham com grande preocupação as notícias sobre um jogo que incentiva automutilação, situações de risco e violência e até tentativas de suicídio entre adolescentes na Internet.

O desafio chamado de Baleia Azul (Blue Whale), que tem causado grande comoção nas redes sociais e muita repercussão na mídia, segue envolto em dúvidas. Nasceu como meme? Existe de fato em grupos de WhatsApp e do Facebook? Induz jovens a atentarem contra a própria vida? 

Grupos de pesquisadores e jornalistas internacionais de sites de checagem de fatos defendem que a ligação do desafio com o suicídio de jovens não passa de uma lenda urbana que, por retroalimentação, acabou funcionando como fator de crescente popularização do jogo.

Como lendas urbanas modernas, a história se alastra rapidamente, servindo de inspiração para ações reais, com mortes e mutilações, mesmo que isoladas.

Tempos atrás, a  SafeNet da Bulgária apontou como origem dos rumores uma matéria falsa (fake news) publicada na Rússia em 15 de março de 2016, e que afirmava que 130 adolescentes russos já haviam se matado depois de participar do suposto "jogo" através de uma rede social russa.

Em fóruns hackers internacionais não faltam teorias conspirativas que atribuem a criação do "jogo do suicídio" e sua associação a mortes de internautas a governos autoritários interessados em produzir pânico coletivo contra a "excessiva liberdade" das redes sociais. Ao estimular a lenda urbana do Blue Whale associada a ondas de suicídio, governos do Leste Europeu estariam, na verdade, fomentando o apoio popular à imposição de vigilância, limitações e censura às redes sociais de seus países.

À parte esta lógica conspiratória, já há claros indícios de que as ações violentas atribuídas ao engajamento com o desafio têm pouquíssima ou nenhuma relação efetivamente comprovada, exceto pelo fato de que parte das vítimas teria realmente frequentado comunidades de pessoas com propensão mórbida, por onde também circulariam bots do Baleia Azul.

Sim, bots. Um dos pontos obscuros dessa história é se há realmente ou não a participação de pessoas se utilizando da história para induzir outras pessoas a cometerem suicídio. 

Desde o aparecimento do Blue Whale, há mais de dois anos, apenas uma única pessoa (um romeno de 21 anos) até agora foi identificada e presa sob a acusação de agir como curador. Mesmo existindo esse suspeito, seu julgamento vem sendo sistematicamente adiado por falta de provas cabais de seu envolvimento, segundo reportam fontes como a ONG NetFamillyNews e a entidade SafeNet da Bulgária.

Profissionais de segurança sustentam que o "curador" do jogo, a pessoa que envia as mensagens, é uma Inteligência Artificial agindo a partir de um "chatbot" que emula humanos com alto nível de verossimilhança. Na opinião deles, desde seu aparecimento até hoje, o Blue Whale e sua origem estão envoltos em um nível de mistério típico dos instrumentos hackers voltados para a obtenção de lucro direto (através de roubo, fraude, extorsão ou sequestro) ou para a captura de dados valiosos e a escravização de computadores infectados.

Problema de segurança
Considerando-se esta hipótese do uso de robôs, o Baleia Azul estaria inaugurando uma nova era dos incidentes de segurança, com ataques de engenharia social em massa que afetam de forma direta e altamente impactante o comportamento do usuário.

De acordo com Thiago Zaninotti, CTO da Aker N-Stalker, o padrão de comunicação interativa implementado pelo modelo do Baleia Azul, é perfeitamente compatível com os atuais bots, baseados em princípios de computação cognitiva. 

"Em geral, os bots sociais, utilizados para finalidades criminosas ou lícitas, dispõem de recursos poderosos de autoaprendizado e são movidos por algoritmos de engenharia social que, embora relativamente sofisticados, estão se tornando cada vez mais corriqueiros nas estratégias de atração e engajamento de vítimas por parte do cibercrime", comenta Zaninotti. 

"O jogo está assentado em um menu fixo de "50 desafios" que cada usuário deve obedecer, em uma ordem igualmente repetitiva, e em um conjunto limitado de atividades recorrentes. Para efeitos de comunicação verbal, tudo isto compreende um número pequeno de variáveis, passíveis de serem semanticamente mapeadas em esquemas de ação e reação bastante restritivos", afirma Rodrigo Fragola, CEO da Aker.

Segundo ele, a criação de um chatbot para as finalidades propostas pelo jogo seria algo tão simples e banal quanto implementar um assistente robótico para apoiar a venda de passagens aéreas ou para sugerir modelos de calçados adequados ao estilo de um consumidor previamente perfilado por engenharia social.

Na visão do CEO da Aker existe, portanto, uma considerável possibilidade de haver bots no lugar de "gurus humanos" orientando os usuários, o que nos remeteria a um cenário assustador. "Caso se confirme a hipótese, teremos na sociedade global uma combinação explosiva de robotização das relações sociais associada a um grande potencial de epidemias psicóticas. Unindo-se esta tecnologia de bots com as de realidade aumentada e a virtualização progressiva da experiência, podemos chegar a um ambiente social com potencial destrutivo enorme", comenta Fragola.

Na avaliação da Aker, se o modelo fosse automatizado, ele poderia realizar ações de mineração de dados em redes sociais e identificar pessoas ideais para serem alvos na propagação de spam contendo códigos maliciosos. Para abordar suas vítimas, o sistema criaria falsas "personas" (ou "falsos avatares") com afinidades sociais bem definidas e preparadas para interagir com internautas dispostos a novos relacionamentos (ou a jogos) e abertos a aventuras nas diversas redes sociais.

Pessoas emocionalmente fragilizadas, como adolescentes com histórico de depressão e outros sofrimentos psicológicos graves, seriam o alvo perfeito e, aliás, ações de injeção do Blue Whale já foram identificadas em fóruns de ajuda mútua e aconselhamento de pessoas dependentes de drogas e com diversos tipos de psicose. "Mesmo não havendo conexão real entre a morte de jovens e o jogo, a possibilidade de se usar robôs para potencializar o efeito de doenças mentais em massa é extremamente preocupante", comenta o CEO da Aker. 

 
chatbot

Para exemplificar a força desse modelo automatizado, Rodrigo Fragola menciona um trabalho acadêmico realizado no Brasil por pesquisadores da UFMG junto ao twitter. "Depois de analisar milhares de perfis de pessoas comuns no Twitter, os pesquisadores mineiros criaram 120 chatbots imitando usuários normais que, em 30 dias, conseguiram angariar mais de 3 mil seguidores (e interlocutores regulares) na rede. Inclusive com grande sucesso em termos de postagens retuitadas por usuários humanos da rede".

Independentemente de ter ou não ocasionado mortes, o fato que o Blue Whale traz à tona é o de que a computação cognitiva irá aumentar, em muito, a capacidade de manipulação das massas, seja por parte de governos ou de grupos do crime organizado.

"Está na hora da sociedade e da comunidade de segurança começarem a refletir sobre este fato. A corrida em busca de tecnologias para detectar, destravar e perseguir a origem desse tipo de ataque, com potencial de gerar convulsões em massa, já mobiliza todo o setor de segurança. Mas só com muita educação adequada às novas realidades da sociedade em nuvem é que poderemos aumentar o nível de segurança das crianças e adolescentes na Internet", conclui Fragola.

bot

Independente disso tudo, a Safernet Brasil pontua que conteúdos e fóruns online e grupos em aplicativos de troca de mensagens que incentivam formas de automutilação e suicídio existem sim na Internet e sempre foram reportados por muitos usuários. Em pesquisa do Comitê Gestor da Internet no Brasil, 11% de crianças e adolescentes relataram terem tido acesso às páginas que ensinavam formas de se machucar e 6% de cometer suicídio, isso representa mais de 2,5 milhões de crianças e adolescentes no Brasil. São dados preocupantes. 

O nome do "jogo" já viralizou na Internet e não faltam hashtags e fan pages. Entre os grupos, deve-se separar aqueles com indivíduos que estão efetivamente cometendo o crime de induzir, instigar ou auxiliar a morte de alguém, tipificado no Art. 122 do Código Penal, daquelas que foram criados como consequência da onda de alarde e para “causar” ou fazer trolagem.

Proibir o acesso a Internet pelos filhos, confiscar celular e monitorar o uso de aplicativos através de programas “espiões” são medidas pouco educativas e fadadas ao fracasso. Elas não previnem os riscos e compromete o vínculo de confiança que deve existir entre pais e filhos.  Família e escola precisam estar perto dos jovens, promoverem o diálogo, conversar de forma franca e aberta sobre como os adolescentes podem lidar e responder a esses riscos. "É parte do desenvolvimento saudável - e preparação para a vida adulta - que o adolescente desenvolva habilidades para lidar com os riscos à sua volta, isso se chama resiliência, que só pode ser desenvolvida enfrentando riscos num ambiente onde ele possa pedir ajuda e com espaço para falar sem pré-julgamentos e reprimendas", explica a Safernet Brasil em sua página no Facebook.

A própria organização oferece um serviço gratuito de escuta, acolhimento e orientação especializada destinado a crianças, adolescentes, pais e responsáveis que estejam vivenciando alguma situação de risco ou violência online. Sua equipe de psicólogos está disponível das 14h às 18h através de chat ou por e-mail, em  www.canaldeajuda.org.br.  Quer ajudar? Faça essa informação circular na sua empresa!

Aspectos jurídicos
O advogado José Antonio Milagre, afirma em artigo publicado pelo IDGNow! que o alerta é conscientização! Além de conversar com seu filho, aluno, colega, amigo e alerte dos riscos e para que o diálogo ocorra caso sejam constrangidos ou coagidos a participarem do desafio, vítimas do crime digital ou familiares precisam saber, segundo o advogado,  que eles podem realizar a quebra de sigilo informático judicialmente, por meio de um advogado especializado ou mesmo autoridade policial, para identificar os cibercriminosos que, se identificados, podem responder por lesão corporal grave, caso as vítimas tenham se mutilado ou praticado “cutting”.

Criminosos virtuais também podem responder por "induzimento ou instigação ao suicídio", caso as vítimas efetivamente deem cabo à própria vida.  A pena pode chegar a seis anos de reclusão de acordo com o art. 122 do Código Penal.

Se as pessoas por trás do desafio forem menores, cometerão ato infracional, sujeitando-se às penalidades do Estatuto da Criança e do Adolescente. Já no aspecto cível, as famílias e vítimas poderão ingressar com ação reparatória pelos danos causados, que serão ressarcidos pelos pais dos menores manipuladores ou curadores por trás do game, ou pelos próprios criminosos, se maiores.

Lembre-se da sua responsabilidade social
Esta semana, o filósofo holandês Koert van Mensvoor, fez um alerta sobre os riscos da humanidade se tornar escrava da tecnologia.

Para ele, o homem se encontra em uma situação de encruzilhada no que diz respeito ao desenvolvimento e uso da tecnologia. Segundo ele, o homem pode fazer com que sua relação com a tecnologia se transforme num sonho ou num pesadelo. 

No cenário do pesadelo, a tecnologia possui um efeito parasita nos seres humanos e nos tornamos a primeira espécie a causar seu próprio fim. No do sonho, a tecnologia está baseada nas necessidades humanas como ponto de partida e, na verdade, é usada para criar um mundo mais natural, um caminho recompensador para todo o planeta.

Suas reflexões integram uma carta aberta publicada nesta quinta-feira (20). Em 'Carta para a Humanidade', em apoio ao Dia Internacional da Terra, Van Mensvoort fala sobre os perigos da humanidade se tornar escrava e vítima de sua própria tecnologia. Mas ao mesmo tempo, chama atenção para o emprego da mesma a fim de aprimorar a raça humana. Segundo o filósofo, há dois caminhos possíveis. 

“Onde fica exatamente a fronteira entre as tecnologias que facilitam a nossa humanidade e aquelas que nos encaixotam e roubam o nosso potencial inato?”, questiona.

Endereçada a todas as 7 bilhões de pessoas na Terra, a carta do filósofo foi traduzida em 25 idiomas, incluindo o português. Você pode lê-la na íntegra aqui.
 


Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui