Recursos/White Papers

Tecnologia

Você sabe o que é Edge Computing, e por que o modelo é tão importante?

Veículos autônomos, drones e dispositivos de IoT irão transformar a nuvem de hoje na névoa de amanhã

Paul Krill, InfoWorld/EUA

Publicada em 06 de março de 2017 às 08h04

A onipresença da computação em nuvem pode não ser tão longa se o capitalista de risco Peter Levine estiver certo. Na opinião do parceiro de Andreessen Horowitz, à medida que mais capacidade de computação se move para os chamados dispositivos de "borda", incluindo aí qualquer coisa conectada, desde carros sem motorista e drones até os dispositivos de Internet das Coisas, a nuvem começará a evaporar lentamente, em um fenômeno que os especialistas batizaram de Edge Computing _ e que a Cisco tem chamado de Fog Computing.  

"Uma grande parte da computação que hoje é feita hoje na nuvem vai voltar para as extremidades da rede",disse Levine durante o Wall Street Journal CIO Network, na última semana.  

Os carros autônomos, equipados com GPUs ou CPUs de alto desempenho, são efetivamente "data center sobre rodas", e um excelente exemplo de dispositivo de borda com capacidade de computação auto-suficientes, comentou o investidor.  Sem esse poder local, se dependessem 100% da nuvem, questões como latência, disponibilidade e qualidade da infraestrutura de transmissão de dados do carro seriam um grande problema. 

De acordo com o World Economic Forum, os EUA estão em 35o lugar no mundo em largura de banda por usuário, o que é um gargalo para quem precisa transmitir um grande volume de dados. Com a IoT esse problema só vai aumentar.  Em situações onde o tempo é crítico, atrasos causados ​​por congestionamento de largura de banda ou dados roteados de forma ineficiente podem ser sinônimo de fracasso.

A nuvem também pode ser um obstáculo para o desempenho de muitos cenários de Machine Learning, que dependem de computação rápida para fornecer decisões mais rápidas.

"Dada a latência da rede e a quantidade de informação, não é aconselhável que essa informação volte para a nuvem central para ser processada," diz Levine. Ele argumenta que a extremidade da rede [onde são executadas as aplicações] será forçada a se tornar mais sofisticada. E acrescenta: "Esta mudança vai transformar a nuvem como a conhecemos." 

Levine considera a Edge Computing menos uma novidade do que talvez o próximo ciclo de computação, quando a nuvem tende desaparecer. Décadas atrás, a maior parte da computação estava centralizada em mainframes, com bancos e a maioria das outras grandes empresas contando com gabinetes refrigerados para gerenciar suas operações comerciais. Muitos mainframes foram desativados para dar espaço à era cliente-servidor, descentralizada.  Pois bem, a nuvem é essencialmente o novo mainframe, com o data center  hospedado em um fornecedor. Se o fluxo e refluxo natural da computação se mantiver, a Internet das Coisas acelerará a próxima etapa da computação distribuída. O que significa que a nuvem "deve acabar em um futuro não muito distante".

Um cenário pode ser assustador para os milhares de vendedores de serviços em nuvem. Durante a última década, Amazon Web Services, Google, Microsoft, Salesforce.com e outros têm ofertado aplicações, infraestrutura, armazenamento e praticamente todos os tipos concebíveis de tarefas de computação ​​como um serviço. Mas o trabalho de um capitalista de risco é ter uma visão mais ampla e mais longa para que possa ver quais inovações virão a seguir. O Levine está dizendo é que os serviços disruptivos de nuvem de hoje sofrerão sua própria disrupção nos próximos cinco a 10 anos.

Diana McKenzie, CIO do provedor da empresa de SaaS Workday, não acredita que a nuvem desaparecerá por completo. Na sua opinião. os dois mundos - o da Cloud e o da Fog ou Edge Computing - vão co-existir. Por exemplo, as empresas vão querer agregar dados coletados de dispositivos de borda na nuvem para posterior análise e geração de insights de negócios.

"O desafio para nós como CIOs é ter certeza de que estamos pensando sobre isso mais como algo contínuo, fluido, do que como uma ruptura. O próximo desafio  será como arquitetar sua solução para usar o melhor dos dois mundo", afirma ela.

No curto prazo, Levine concorda com MacKenzie. A nuvem, segundo ele, será onde a informação ficará armazenada por longos períodos de tempo, e onde os algoritmos de aprendizado de máquina acessarão vastas coleções de dados para análise e treinamento.  Mas até isso poderá mudar no futuro. 

Afinal de contas, no mundo da IoT, quanto mais a análise puder ser realizada no ponto onde (ou muito perto de onde) os dados são coletados, melhor. Muitas vezes, é aqui que a ação baseada nos insights fornecidos pelos dados será mais necessária.

edegcomputing

Outras tendências
O debate sobre Edge Computing foi  quente, mas não foi o único. Levine e os demais participantes do painel - Rich Wong, General Parter da Accel e Steve Herrod, diretor da  Catalyst -  abordaram outras tendências emergentes.

- Do Big Data ao Machine Learning: Na visão de Levine, o Big Data 1.0 se concentrou em coletar muita informação, mas a próxima onda envolve prever o que vai acontecer no futuro. "O Aprendizado de Máquinas vai desbloquear essas vastas lagoas de informações que temos ... que podem nos ajudar a prever o futuro de maneira melhor", disse o investidor. 

Na opinião de Wong, empresas já podem usar Machine Learning para automatizar funções de serviços de TI, como resets de senha para os clientes. Confiar essas operações corporativas a algoritmos de máquinas pode render de 30% a 100% de economia de custos, disseram os VCs.

Como investidor, Wong manifestou interesse em incentivar startups a implantar uma estratégia "land and expand" (ou seja, aterriza primeiro e logo ganha mercado).

- Proof-of-concepts-as-a-service: Tornou-se moda para os CIOs se imaginarem como provedores de "IT-as-a-service", essencialmente como brokers de recursos digitais, incluindo Cloud, Mobile, Analytics e IoT. Neste modelo, faz sentido para o CIO reconhecer que provas de conceitos são uma valiosa maneira de avaliar novas tecnologias, disse Herrod. Ele sugeriu que startups ofereçam provas de conceitos como um serviço para ajudar.

- Necessidade de analistas de dados: Levine diz que se os dados são o ingrediente mais importante para desbloquear o valor do negócio, então os cientistas e analistas capazes de derivar insights a partir dos dados coletados e transformá-lo em informações acionáveis ​​serão os mais requisitados. Mas muitos CIOs seguem tendo muita dificuldade em contratá-los. São as posições mais difíceis de preencher. 

Herrod discordou. Na sua opinião, as contratações mais difíceis são os líderes do DevOps porque há pouco consenso sobre o que define o DevOps. 



Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui