Recursos/White Papers

Tecnologia

A Inteligência Artificial vai inaugurar uma nova era de hackers

É apenas uma questão de tempo até que os hackers eventualmente atualizem seu arsenal

Da Redação, com COMPUTERWORLD/EUA

Publicada em 28 de novembro de 2016 às 08h56

Pode levar vários anos ainda, ou mesmo décadas, para que os hackers não sejam necessariamente humanos. A Inteligência Artificial - uma tecnologia que também promete revolucionar a segurança cibernética - pode se tornar a ferramenta de hacking.

Organizadores do Cyber ​​Grand Challenge, um concurso patrocinado pela agência de defesa americana DARPA, deram uma pequena mostra do poder da IA ​​durante o seu evento de agosto. Sete supercomputadores lutaram entre si para mostrar que as máquinas podem realmente encontrar vulnerabilidades de software. Teoricamente, a tecnologia pode ser usada para aperfeiçoar qualquer codificação, livrando-a de falhas exploráveis. Mas e se esse poder fosse usado para propósitos maliciosos? O futuro da ciberdefesa também pode preparar o caminho para uma nova era de hackers.

Possíveis perigos
Os cibercriminosos podem usar esses recursos criados para verificar vulnerabilidades de software anteriormente desconhecidas e, em seguida, explorá-las para o mal. No entanto, ao contrário de um ser humano, um sistema de Inteligência Artificial pode fazer isso com maior eficiência. Hacks demorados para desenvolver podem tornar-se commodities baratos neste cenário de pesadelo, disponíveis na deep web. É um risco para o qual os especialistas em segurança cibernética estão bem cientes, nesse momento no qual a indústria de tecnologia já vem desenvolvendo carros auto-dirigidos, robôs mais avançados e outras formas de automação. "A tecnologia é sempre assustadora", disse David Melski, vice-presidente de pesquisa da GrammaTech.

deepweb

A empresa de Melski estava entre os que construíram um supercomputador para participar do Cyber ​​Grand Challenge de agosto. Sua empresa agora está considerando usar essa tecnologia para ajudar os fornecedores a evitar falhas em seus dispositivos de Internet de Coisas ou tornar os browsers mais seguros.

"No entanto, descoberta de vulnerabilidade é uma espada de lâmina dupla", disse ele. "Estamos cada vez mais automatizando tudo." Portanto, não é difícil para os especialistas em segurança imaginarem um lado escuro potencial, onde os sistemas de Inteligência Artificial podem construir ou controlar poderosas cyberweapons. Melski apontou para o caso de Stuxnet , um worm desenhado para interromper o programa nuclear iraniano.

"Quando você pensa em algo como Stuxnet ficar automatizado é alarmante", disse ele.

Aproveitando o potencial
"Eu não quero dar ideias a ninguém, mas as tecnologias voltadas para a IA que rastreiam a internet, procurando vulnerabilidades, podem estar entre as realidades de futuros ciberataques", disse Tomer Weingarten, CEO da empresa de segurança SentinelOne.

Essa racionalização do cibercrime já ocorre. Hoje já é possível contratar serviços de hackers no mercado negro, construídos com interfaces web e comandos fáceis de entender, para infectar computadores com ransomware .

Weingarten acredita na possibilidade desses serviços de aluguel incorporarem eventualmente tecnologias de IA que possam projetar estratégias de ataque inteiras, lançá-las e calcular a taxa associada. "Os atacantes humanos podem então desfrutar dos frutos desse trabalho", disse ele.

Na ponta da defesa, empresas de segurança cibernética como a Cylance já estão utilizando técnicas de aprendizagem de máquina para parar malwares. Isso envolve a construção de modelos matemáticos baseados em amostras de malware que podem avaliar se determinada atividade em um computador é normal ou não.

"Em última análise, você termina se um arquivo é bom ou ruim baseado em uma probabilidade estatística", disse Jon Miller, diretor de pesquisa da empresa de segurança. ele.

"Estamos constantemente adicionando novos dados (amostras de malware) ao modelo", disse Miller. "Quanto mais dados você tem, mais preciso você pode ser. Hoje, o sistema tem acertado em 99% dos casos."

Escalação
Uma desvantagem é que usar machine learning pode ser caro. "Nós gastamos meio milhão de dólares por mês em modelos de computador", disse ele. Esse dinheiro é gasto em leasing de serviços de computação em nuvem AWS para executar os modelos. Qualquer pessoa que tente usar as tecnologias da IA ​​para fins maliciosos pode enfrentar esta mesma barreira de entrada. Além disso, eles também precisam proteger os melhores talentos para desenvolver a programação. Mas ao longo do tempo, os custos de computação poderão inevitavelmente diminuir, admite Miller.

Portanto, o dia em que os hackers comecem a recorrem ao uso de Inteligência Artificial ainda pode estar longe. "Por que isso ainda não foi feito? Talvez por não ser necessário", disse ele. "Já existem falhas suficientes em tudo."

Até hoje, muitos hacks ocorrem depois que um e-mail de phishing contendo malware é enviado para o destino. Em outros casos, as vítimas usam logins com senhas fracas ou esquecem de atualizar o software com o patch mais recente - tornando-os mais fáceis de hackear.

macinevsmachine

As tecnologias da IA, como machine learning, mostraram o potencial para resolver alguns desses problemas, disse Justin Fier, diretor de ciber inteligência da empresa de segurança Darktrace. Mas pode ser apenas uma questão de tempo até que os hackers eventualmente atualizem seu arsenal.

Isso colocará as empresas de segurança cibernética contra os hackers com Inteligência Artificial na linha de frente. "Parece que estamos entrando em uma cyber guerra de máquina versus máquina", disse Fier.



Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui