Recursos/White Papers

Opinião

Web scraping: como proteger os negócios dessa ameaça silenciosa

Cada vez mais, as empresas precisam ter estratégias para proteger suas informações online

Rafael Puga *

Publicada em 09 de agosto de 2017 às 07h05

Imaginar o futuro com robôs pode significar pensar em filmes de ficção científica ou fantasiar com robôs similares aos seres humanos que conversam conosco, limpam nossa casa e agem como nossos assistentes. Mas a realidade é que os robôs atuais existem em várias formas e para diversos propósitos.

Os bots, por exemplo, não têm uma forma física - são aplicações que realizam funções automáticas repetidas vezes de forma rápida, como um robô o faria. E apesar de facilitarem nossas vidas em diversas maneiras, também podem servir para propósitos maliciosos.

Um dos focos das ameaças atuais de cibersegurança é o web scraping, o processo de usar bots para extrair grandes quantidades de dados de um site rapidamente, salvando as informações para uso pessoal. A técnica é um tanto polêmica: enquanto negócios legítimos a utilizam, o web scraping também é usado ilegalmente para, por exemplo, roubar conteúdos protegidos por direitos autorais e gerar cotações de um produto ou serviço para uma concorrência desleal.

O web scraping possibilita que hackers e fraudadores se beneficiem do trabalho e conteúdo de outras empresas, prejudicando seus negócios. Esses bots são geralmente programados para imitar o comportamento regular de um usuário, o que torna mais difícil detecá-los e bloqueá-los. E essa técnica está aumentando e tornando-se mais acessível e barata. De acordo com um relatório da National Science Foundation, 60% do tráfego web são originados por bots.

bot

Além disso, as empresas que estão na mira do web scraping, como seguradoras, podem sofrer diversos danos se forem vítimas desse tipo de ataque. A ação dos bots pode saturar os servidores do site, tornando-o indisponível para os clientes verdadeiros; a cópia e replicação do conteúdo podem prejudicar a estratégia de SEO e posição do site nos buscadores, além de infringir direitos autorais; e concorrentes podem oferecer preços mais baixos, que resultam em perda de clientes e menos vendas.

Tudo isso significa que as empresas precisam ter estratégias para proteger suas informações online. E a melhor forma de fazer isso é encontrar uma solução no mercado que forneça visibilidade de todo o tráfego do site, entenda o contexto para diferenciar a legitimidade de ações, e ofereça controle para atuar  da melhor forma  na proteção. 

Dentre os recursos da solução, é importante que ela tenha capacidade de realizar a análise e proteção de variadas formas que possam ser combinadas, como validação do usuário, inspeção das interações entre usuário e navegador, checagem de integridade do dispositivo, detecção e mitigação de ataques e falhas críticas, e que mantenha as aplicações sempre disponíveis. 

Além disso, não basta apenas implementar uma solução e esperar que ela proteja os negócios contra web scraping para sempre, mesmo porque as ameaças virtuais estão sempre evoluindo. Nesse momento, um parceiro para monitorar o ambiente, fazer atualizações sempre que necessário e oferecer serviços de suporte e consultoria é essencial.

 

 

(*) Rafael Puga é arquiteto técnico da Dimension Data



Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui