Recursos/White Papers

#Brandpost | Saiba mais Patrocinado por

As 10 tendências de Big Data que definirão 2017

Em 2016, mais organizações armazenaram, processaram e extraíram valor dos dados. Veja quais são as previsões para Big Data em 2017.

por Tableau Software

Publicada em 13 de fevereiro de 2017 às 18h57

Em 2016, muito mais organizações armazenaram, processaram e extraíram valor de dados de todos os formatos e tamanhos. Em 2017, os sistemas que oferecem suporte a grandes volumes de dados estruturados e não estruturados continuarão crescendo. Haverá uma demanda de mercado por plataformas que ajudem os administradores de dados a governar e proteger o Big Data e que permitam aos usuários analisar esses dados. Esses sistemas amadurecerão para operar de forma integrada com os padrões e sistemas de TI empresarial. E isso é apenas o começo das nossas previsões para o setor em 2017.

1. Big Data mais ágil e acessível. O Hadoop continua relevante, ele só precisa ser mais rápido. É claro que você pode utilizar o aprendizado de máquina e fazer análises de sentimentos no Hadoop, mas a primeira pergunta que as pessoas geralmente fazem é: o quanto o SQL interativo é rápido? Afinal, o SQL é a via utilizada pelos usuários corporativos que desejam acessar os dados do Hadoop para criar painéis com KPIs mais iterativos e ágeis, bem como para fazer análises exploratórias. Em 2017, as opções expandirão para acelerar o Hadoop. Essa mudança já começou, conforme evidenciado pela adoção de bancos de dados mais ágeis como o Exasol e o MemSQL, de armazenamentos baseados no Hadoop, como o Kudu, e de tecnologias que possibilitam consultas mais rápidas.

2. Organizações aproveitam lagos de dados desde o início para obter valor. Um lago de dados é como um reservatório. Primeiro você cria a estrutura (um cluster) e depois enche de água (dados). Depois que o lago estiver pronto, você começa a usar a água (dados) para várias finalidades, como geração de energia, consumo e recreação (análises preditivas, aprendizado de máquina [ML], segurança cibernética, etc.). Até aqui, alimentar o lago tem sido suficiente. Em 2017, isso mudará, uma vez que não será mais tão fácil justificar comercialmente o uso do Hadoop. As organizações precisarão usar o lago repetidamente e com agilidade para obter respostas com mais rapidez.

3. Arquiteturas desenvolvidas para rejeitar um tamanho padrão para todas as estruturas. O Hadoop não é mais apenas uma plataforma de processamento em lotes para casos de uso de ciência dos dados. Ele se tornou um mecanismo multifuncional para análises ad hoc, e tem sido usado até mesmo para gerar relatórios operacionais sobre as cargas de trabalho diárias; o que geralmente é feito por data warehouses. Em 2017, as organizações responderão a essas necessidades híbridas buscando uma arquitetura desenvolvida especificamente para um caso de uso. Elas pesquisarão diversos fatores, incluindo o comportamento dos usuários, perguntas, volumes, frequência de acesso e muito mais antes de escolher uma estratégia de dados. E as próprias estratégias combinarão as melhores ferramentas de preparação de dados de autoatendimento, o Hadoop Core e plataformas de análise voltadas para o usuário final, de forma a possibilitar sua reconfiguração à medida que essas necessidades evoluem.

4. A variedade, e não o volume ou a velocidade, é o que orienta os investimentos em Big Data. O Gartner define o Big Data como os três Vs: volume alto, velocidade alta e variedade ampla de ativos de informação. Embora os três Vs estejam em expansão, variedade está se tornando o maior responsável por investimentos de Big Data. Essa tendência continuará crescendo com as empresas buscando integrar mais fontes e se concentrar na “cauda longa” do Big Data. Do JSON sem esquema até tipos aninhados em outros bancos de dados (relacionais e NoSQL) e dados com formatação (Avro, Parquet, XML), os formatos de dados estão se multiplicando, e os conectores estão se tornando essenciais. Em 2017, as plataformas de análise serão avaliadas com base em sua capacidade de oferecer uma conectividade direta em tempo real com essas diversas fontes.

5. O Spark e o aprendizado de máquina dão gás ao Big Data. Em uma pesquisa feita com arquitetos de dados, gerentes de TI e analistas de BI, aproximadamente 70% dos entrevistados preferiam o Apache Spark ao tradicional MapReduce. O Spark, como o Microsoft Azure, é baseado em lote e não pode ser usado com aplicativos interativos ou no processamento de fluxo em tempo real. Esses recursos de processamento de Big Data provocaram uma evolução nas plataformas, que agora oferecem aprendizado de máquina intensivo, IA e algoritmos de gráfico. O aprendizado de máquina do Microsoft Azure, em particular, emplacou graças à sua interface simples de usar e facilidade de integração com plataformas Microsoft existentes. Disponibilizar o aprendizado de máquina para as massas resultará na criação de mais modelos e aplicativos que, por sua vez, gerarão petabytes de dados. Consequentemente, todos os olhares estarão voltados para os provedores de software de autoatendimento para ver como eles tornarão esses dados acessíveis para os usuários finais.

Quer saber mais? Conheça as outras tendências e saiba mais sobre o futuro do Big Data em 2017. Baixe o white paper agora.

SOBRE A TABLEAU
A Tableau ajuda as pessoas a transformar dados em informações acionáveis. De multinacionais a startups recém-fundadas e pequenas empresas, pessoas em todo o mundo usam a Tableau para ver e entender seus dados.



Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui