Recursos/White Papers

Tecnologia

Machine Learning é complexo, demorado e pesado

O armazenamento e a entrega de dados podem influenciar drasticamente a eficiência de um ambiente

Paulo de Godoy *

Publicada em 31 de março de 2018 às 08h38

Não há mais como negar, as organizações são, cada vez mais, impulsionadas pela velocidade em que seus dados são executados. Enquanto a Inteligência Artificial (AI) e o Machine Learning (ML) resolvem problemas tradicionais do dia a dia das companhias, a partir do reconhecimento de padrões repetitivos, por outro lado, começam a encontrar espaço no âmbito das análises de negócios. Em outras palavras, se afastam de operações mais tradicionais para impactar diretamente na vantagem competitiva e nos diferenciais das empresas.

Nos voltando ao Machine Learning, implementado nas arquiteturas da computação tradicional, vemos o desempenho e a latência determinados pela conexão entre a computação e o armazenamento. O fenômeno acontece nas mesmas redes que atendem a outras aplicações comerciais. O volume e a velocidade crescentes dos dados que chegam estão enfatizados nessas arquiteturas, seja pelo processamento em tempo real da Internet das Coisas (IoT), o reconhecimento de padrões em imagens e áudio ou ainda a mineração de dados para obter novas informações dos clientes e negócios da organização.

O que se busca, então, é descrever como as implementações atuais para aprendizagem de máquina e processamento relacionado podem ser construídas sobre novas arquiteturas de armazenamento, especialmente projetadas para fornecer dados em tempo real, com o objetivo de equipar uma solução de armazenamento otimizada, que resolva diferentes problemas da Deep Learning.

Evolução do computador
Hoje, já se sabe que é necessária uma potência computacional enorme e um grande volume de dados para processar o Machine Learning que atualmente conhecemos. Não faz muito tempo que nossos servidores eram baseados em x86, apoiados por matrizes de armazenamento tradicionais e dispositivos de armazenamento em rede (NAS), sendo bons o suficiente para executarem algoritmos de aprendizagem. Estes são, afinal, os mesmos servidores e redes de armazenamento que as empresas confiam para executarem outros aplicativos críticos de negócios.

No entanto, com a recente revolução na aprendizagem de máquinas, impulsionada pelo Deep Learning, observamos uma série de inovações convergentes. A tecnologia já pode cumprir a promessa da Inteligência Artificial e do Machine Learning de forma material. Ou seja, a indústria mudou e a tecnologia passa a ser encarada como uma arte possível.

Com isso, diferentes circunstâncias passaram a possibilitar a Transformação Digital. A redução do custo da DRAM (Dynamic random-access memory), um tipo de memória RAM de acesso direto e que armazena cada bit de dados em um condensador. Modelos de computação em memória que evoluíram rapidamente, deixando de buscar dados do armazenamento externo e passando a transmitir dados alimentados no mesmo domínio que os processadores que executam as análises.

CPU
Ao mesmo tempo, a unidade de processamento de gráficos (GPU) torna-se mais do que apenas entregar ação rápida para os principais players. Isso porque, as unidades de processamento paralelas nessas GPUs são realmente boas para executar exatamente os tipos de algoritmos necessários para as demandas da Machine Learning.

Entretanto, embora os processadores rápidos sejam ótimos, as GPUs, historicamente, sempre foram mais difíceis de serem programadas. Foi então que, empresas como a NVIDIA, trabalharam para diminuir o peso da programação de GPUs, inovando com uma linguagem chamada CUDA e uma ampla gama de ferramentas para ajudar os cientistas de dados a desenvolver algoritmos de treinamento. O ecossistema do software da GPU floresceu, tornando-se o facilitador de uma constelação de novos algoritmos Deep Learning.

O que esse cenário aponta é que o Machine Learning é complexo, demorado e pesado. Arquitetos e profissionais que implementam os sistemas com a promessa da aprendizagem de máquina tendem a concentrar-se na complexa tarefa de integrar CPUs e GPUs para suportar os algoritmos que irão tornar seus esforços bem-sucedidos.

O armazenamento e a entrega de dados podem influenciar drasticamente a eficiência de um ambiente de aprendizagem de máquinas. A inovação continua em um ritmo acelerado e é fundamental que você converse com os líderes que entendem o ambiente de Machine Learning hoje, para conseguir construir um futuro competitivamente próspero.


(*) Paulo de Godoy é gerente regional da Pure Storage no Brasil


Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui