Home > Tendências

Machine Learning brilha entre vencedores do Technology of the Year Award

Edição 2019 do prêmio da Infoworld reconhece as melhores ferramentas de Machine Learning, Deep Learning, Cloud, Big Data e Analytics

Da Redação, com InfoWorld/EUA

05/02/2019 às 9h03

Foto: Shutterstock

Saiu o Technology of the Year Awards,da InfoWorld, que premia os melhores, mais inovadores e mais importantes produtos no cenário da tecnologia da informação. Entre os 17 vencedores desta edição de 2019 estão três bibliotecas líderes de Machine Learning, uma estrutura de treinamento distribuída que acelera o Deep Learning e uma plataforma automatizada que guia os não especialistas por meio da engenharia de recursos, seleção de modelos, treinamento e otimização. O que faz com que o Machine Learning seja o destaque desta edição.

Conheça todos os vencedores de 2019.

Kubernetes
Kubernetes (aka K8s) dispensa apresentações. Basta dizer que teve uma ascensão surpreendente nos últimos dois anos. Costumava ser um dos vários sistemas de orquestração de containers, mas agora está se tornando rapidamente a plataforma padrão para microsserviços, seja em um dos principais provedores de nuvem ou em instalações corporativas on premise. Se você está no campo das operações, passar o tempo lidando com o Kubernetes provavelmente devolverá dividendos à medida que o projeto de código aberto segue a sua marcha implacável.

Com base nas ideias e lições aprendidas na execução dos enormes datacenters do Google ao longo de uma década, o Kubernetes é uma plataforma testada  para implantar, dimensionar e monitorar aplicativos e cargas de trabalho em grandes clusters.

Firebase
No futuro, podemos ou não ter computação quântica, mind reading AIs e sublinear algorithms, mas, independentemente do que aconteça, podemos ter certeza de que os chamaremos de “banco de dados”.  O surgimento do Firebase é um bom exemplo de como isso vai acontecer.

À primeira vista, o Firebase parece uma solução de armazenamento simples para chaves e seus valores de acompanhamento. Em outras palavras, um pacote de pares que é mantido razoavelmente consistente como os outros bancos de dados NoSQL. Mas com o passar dos anos, o Google vem adicionando recursos que permitiram que o Firebase fizesse cada vez mais o trabalho que um aplicativo Web baseado em nuvem poderia fazer. O Google até começou a se referir ao Firebase como uma plataforma móvel.

A equipe do Firebase percebeu que as rotinas de sincronização que mantêm o banco de dados consistente também são ferramentas ideais para empurrar e extrair dados de seu cliente móvel. Eles abriram o processo de sincronização e agora seu código não precisa manipular algum algoritmo complicado para handshakin. Você apenas entrega seus bits para o Firebase e, como mágica, uma cópia aparece no aparelho.

Autenticação? Seu login social no Facebook ou, claro, no Google, permitirá que seus usuários acessem as fatias certas do banco de dados. Analytics? Hospedagem? Mensagens? Todas as soluções do Google estão sendo gradualmente colocadas sob o guarda-chuva do banco de dados. E o Machine Learning? Já é uma opção beta para usuários do Firebase que desejam analisar os pares de chave/valor já existentes no banco de dados.

Serverless Framework
A próxima geração de tecnologia em nuvem está se livrando dos servidores, pelo menos no nome, e nos poupando não apenas de nos preocupar com patches e atualizações do sistema operacional, mas também com a maioria das dores de cabeça associadas à entrega de aplicativos.

Ainda existe hardware de servidor e um sistema operacional em algum lugar sob nosso código, mas agora ainda mais é responsabilidade de outra pessoa. Em vez de obter tarefas que vêm com acesso root, podemos apenas fazer o upload de nossas funções e deixar que a pilha de software de alguém as avalie. Podemos nos concentrar nas funções e deixar todo o resto para os pequenos elfos que mantêm as nuvens funcionando.

Mas há desafios. Computação sem servidor significa repensar arquiteturas técnicas. Confiar em eventos e filas assíncronas exige a refatoração de aplicativos em tarefas perfeitamente divididas. E muito ainda precisa ser feito: depuração de integração, monitoramento distribuído, empacotamento de implantação, controle de versão de função, etc.

Todos os Faas (Function As A Service) Providers - AWS Lambda , Microsoft Azure Functions e Google Functions - têm seus próprios métodos especializados para a implantação e operação.

É aí que o Serverless Framework vem para o resgate, oferecendo uma camada de abstração sobre implementações específicas do fornecedor para agilizar a implantação de aplicativos. A estrutura de software livre oferece maneiras convenientes de testar e implantar suas funções em vários provedores de nuvem e facilita as atualizações de configuração por meio de um arquivo YAML comum, além de fornecer recursos avançados para gerenciamento de funções e segurança.

Além dos principais, o Serverless Framework oferece suporte ao Kubeless, uma estrutura para implementar o FaaS em clusters Kubernetes e o Apache OpenWhisk, uma plataforma baseada no Docker que sustenta o IBM Cloud Functions e oferece amplo suporte a idiomas e recursos exclusivos para lidar com conexões mais persistentes.

A computação sem servidor não está madura nem é uma bala de prata para cada caso de uso, mas a economia e a eficiência são difíceis de resistir. Com o Serverless Framework disponível para suavizar os obstáculos, por que não ingressar no crescente número de empresas que se voltam para servidores para reduzir custos operacionais e acelerar as implantações?

Elastic Stack
Se você estiver executando um aplicativo da Web voltado para o usuário nos dias de hoje, fornecer uma funcionalidade de pesquisa sofisticada não é uma opção. Os usuários estão constantemente sendo apresentados a interfaces de pesquisa de texto livre que irão corrigir sua ortografia, sugerir automaticamente frases alternativas e destacar os resultados da pesquisa para mostrar por que certos resultados foram retornados. Goste ou não, esses são os padrões de pesquisa que você deve seguir.

Felizmente, o Elastic Stack atenderá a todas as suas necessidades de pesquisa e muito mais. Consistindo principalmente de ElasticSearch , Kibana , Logstash e batidas , o Stack Elastic suporta muitos casos de uso, incluindo pesquisa de documentos voltados para o usuário e agregação de log centralizado e análise. A indexação de documentos, um de cada vez ou em massa, no Elasticsearch é uma brisa de quase qualquer idioma, completa com as melhores suposições para tipos de mapeamento para todos os seus campos (pense nos tipos de dados da coluna em bancos de dados relacionais). Agora você tem a API de pesquisa completa à sua disposição, incluindo pesquisa difusa, realce e resultados de pesquisa facetada. Par que com uma ferramenta front-end como o Searchkit e você terá um rápido protótipo de pesquisa facetada de texto livre em pouquíssimo tempo.

Agregar logs de qualquer número de serviços separados não poderia ser mais fácil usando o Logstash e o Beats, permitindo que você enviasse linhas de log para um cluster centralizado do Elasticsearch para facilitar a solução de problemas e a análise. Depois de ter os dados de log indexados, use o Kibana para criar gráficos e montar painéis para obter a integridade do sistema rapidamente. O Elastic Stack é um dos must-have de hoje para qualquer novo projeto web.

DataStax Enterprise
O Apache Cassandra  é uma ótima maneira de executar uma infraestrutura de dados global massivamente escalável. Seu design é ideal para executar muitos tipos de aplicativos em nuvem de alto rendimento. No entanto, o Cassandra não é o sistema mais fácil de implantar e gerenciar. Também deixa a desejar na execução de vários tipos de aplicativos envolvendo operações de análise, pesquisa e gráfico. O DataStax Enterprise (também conhecido como DSE) adiciona esses recursos juntamente com desempenho e segurança aprimorados, gerenciamento, replicação avançada, OLTP na memória, carregador em massa, armazenamento hierárquico, pesquisa, análise e um estúdio de desenvolvedor.

Como o Bigtable e o Cassandra, o DataStax Enterprise é mais adequado para grandes bancos de dados - terabytes a petabytes - e é melhor usado com um esquema desordenado que possui muitas colunas por linha. Os usuários do DataStax e do Cassandra tendem a usá-lo para aplicativos de grande escala. Por exemplo, o  eBay usa o DataStax Enterprise  para armazenar 250 TB de dados de leilão com 6 bilhões de gravações e 5 bilhões de leituras diárias.

O DataStax Enterprise 6 trouxe diversos novos recursos -  DSE Analytics, DSE Graph e DSE Search, além de  configurações de segurança mais refinadas. Melhorias no DataStax Studio rastreiam as melhorias no DSE Analytics, como  suporte para o Spark SQL e suporte expandido ao IDE para o DSE Graph com  gráficos interativos . Para completar, os benchmarks mostram que o DSE 6 é mais rápido que o Cassandra ( veja a análise do InfoWorld ).

Apache Kafka
Honestamente, é estranho imaginar um mundo sem Apache Kafka. A plataforma de streaming distribuído logo comemora seu oitavo aniversário, e o projeto continua a ser a escolha de fonte aberta para aplicativos de streaming, esteja você adicionando algo como Apache Storm ou Apache Spark para processar ou usar as ferramentas de processamento fornecidas pelo Apache Kafka em si. O Kafka pode lidar com aplicativos de baixa latência sem suar a camisa, e seu armazenamento baseado em log torna-o uma ótima opção onde a confiabilidade é necessária.

Para fazer interface com bancos de dados e outras fontes de dados, o Kafka Connect inclui vários conectores para ofertas populares, como Microsoft SQL Server, Elasticsearch, HDFS, Amazon S3 e muitos outros, permitindo que você transfira dados para seu cluster Apache Kafka simplesmente editando um arquivo de configuração. Imagine a configuração de um pipeline inteiro de um banco de dados para o Amazon S3, sem precisar escrever código personalizado, nem tocar em nenhum código Java.

Confluente, um dos principais desenvolvedores de Apache Kafka - incluindo os criadores originais,  Jay Kreps, Neha Narkhede e Jun Rao,  oferece uma plataforma que se baseia na oferta de código aberto. Embora isso inclua produtos tradicionais da empresa, como interfaces de usuário operacionais melhores, ela também inclui o KSQL, uma biblioteca que fornece a capacidade de interrogar e processar os dados contidos nos tópicos do Kafka usando SQL direto.

E se você não se sente à altura de executar o Apache Kafka, o Google oferece uma plataforma gerenciada em conjunto com o Confluent, enquanto a Amazon tem o Streaming gerenciado para o Kafka (Amazon MSK). O Amazon MSK está atualmente em pré-visualização pública, com probabilidade de atingir a disponibilidade geral em algum momento de 2019.

Apache Beam
O Apache Beam adota uma abordagem inovadora para o desenvolvimento de pipelines de processamento em lote e fluxo. Ao contrário da maioria das plataformas, o Beam abstrai a linguagem de desenvolvimento do mecanismo de execução final. Você pode escrever seu pipeline em Java, Python ou Go , em seguida, misturar e combinar um mecanismo de tempo de execução para atender às suas necessidades específicas - digamos, Apache Spark para trabalhos em memória ou Apache Flink para desempenho de baixa latência.

Sua lógica de negócios não está atrelada a um mecanismo de execução específico, portanto você não fica preso à obsolescência das tecnologias.

Internamente, a Beam gerencia toda a mecânica para processamento de eventos temporais. Independentemente de seus lotes bem definidos ou bursts fora da sequência serem provenientes de sensores de IoT intermitentes, o Beam agrega várias janelas de eventos, aguarda a heurística onboard para determinar se dados suficientes foram acumulados e dispara um acionador para iniciar o processamento. Transformações, enriquecimento de dados e monitoramento de fluxo fazem parte do mix.

O Beam suporta vários runners (Spark, Flink, Google Dataflow, etc.), transformações de E/S (Cassandra, HBase, Google BigQuery etc.), mensagens (Kinesis, Kafka, Google Pub / Sub etc.) e fontes de arquivos (HDFS, Amazon S3, Google Cloud Storage, etc.). Os fundamentos de código aberto da Beam estão aparecendo em soluções de terceiros, como o Talend Data Streams, que compila para os pipelines da Beam.

O Apache Beam não fornece apenas um mecanismo sólido para o processamento de ETL distribuído, análise de dados em tempo real e pipelines de aprendizado de máquina, mas de uma maneira que revele seu investimento.

Redis
É um banco de dados NoSQL! É um cache na memória! É um corretor de mensagens! É tudo o que precede e mais alguma coisa! O Redis fornece tantos recursos úteis em um único pacote, que não surpreende se chamado “armazenamento de estrutura de dados em memória” e tenha se tornado um grampo de pilhas de aplicativos modernos, com suporte de biblioteca em praticamente todas as linguagens de programação.

A análise investigativa via big data substituirá o business intelligence

O Redis oferece a capacidade de trabalhar com o nível de complexidade e potência que você precisa para um determinado trabalho. Se tudo o que você precisa é de um cache de memória simples para fragmentos de dados, é possível configurar o Redis e trabalhar com seu aplicativo em apenas alguns minutos. Se você quer o equivalente a um sistema NoSQL com suporte a disco, com diferentes estruturas de dados e sua escolha de esquemas de despejo de cache, você pode fazer isso com um pouco mais de esforço.

O Redis 5.0, lançado em outubro de 2018, introduziu muitos novos recursos poderosos, sendo o mais significativo o novo  tipo de dados de fluxo. Essa estrutura de dados apenas de log torna possível construir sistemas de mensagens do tipo Apache Kafka com o Redis. Outras melhorias no Redis 5.0 incluem melhor gerenciamento de memória e controle de fragmentação - importantes melhorias de desempenho para um sistema construído em torno do armazenamento na memória como sua principal metáfora.

 Visual Studio Code
A beleza do Visual Studio Code é que ele pode ser o máximo ou o mínimo que você deseja. O Visual Studio Code servirá como um editor rápido e leve, se isso for tudo o que você precisa, ou se transformará em um ambiente de desenvolvimento completo, graças aos plug-ins e add-ons para praticamente todos os principais idiomas ou runtime em uso atualmente. Python, Java, Kotlin, Go, Rust, JavaScript, TypeScript e Node.js (para não mencionar as próprias linguagens .Net da Microsoft) têm excelente suporte - assim como formatos de documentos suplementares como Markdown, HTML, reStructuredText e LLVM IR.

Além de amplo suporte e ampla adoção, o Visual Studio Code se destaca pelo fluxo contínuo de aprimoramentos e adições que entram no produto. Nenhuma área de funcionalidade foi ignorada. Assim, você encontrará um forte suporte para o Git, o Team Foundation Server, o Docker, o code linting, a refatoração, arquivos grandes, etc. Há até mesmo a capacidade de executar o Visual Studio Code em um diretório independente, abrindo as portas para o reempacotamento do Visual Studio Code como um ambiente independente para qualquer novo propósito que você possa sonhar.

.Net Core
Já foi dito que converter um projeto de software em código aberto é a melhor coisa ou a pior coisa que você poderia fazer por ele. No caso do .Net Framework da Microsoft, abrir um sourcing de um subconjunto da funcionalidade como .Net Core tem sido um retumbante sucesso, resultando em um tempo de execução mais leve com um processo de desenvolvimento aberto, uma filosofia de plataforma cruzada e ponte de compatibilidade de volta para o .Net Framework para aplicativos que precisam dele.

A versão 2.1, lançada em maio de 2018, reuniu muitos recursos que complementaram esse plano maior. Entre eles estão:. Net Core Global Tools, um novo sistema para implementar e estender as ferramentas de linha de comando usadas para gerenciar aplicativos .Net; o Windows Compatibility Pack, fornecendo acesso às milhares de APIs usadas no big-brother .Net Framework para aplicativos nativos do Windows; ferramentas de análise de API para identificar as dependências da API do Windows ao portar um aplicativo do Windows; e mecanismos para publicar aplicativos independentes .Net Core com o último pacote de tempo de execução incluído.

LLVM
À primeira vista, o LLVM pode parecer uma escolha esotérica para o nosso prêmio. Um kit de ferramentas para construir compiladores de linguagens de programação? Mas o poder da estrutura do compilador LLVM está no cerne de vários projetos da lista: Clang , Rust , Swift , Julia e muitos outros projetos inovadores que movem as linguagens de programação para frente.

O LLVM fornece aos desenvolvedores os meios para gerar código nativo de máquina de maneira programática - sem que eles precisem conhecer as vicissitudes de cada arquitetura e plataforma que desejam atingir. Um caso de uso óbvio é o compilador de linguagens, mas o LLVM também possibilita toda uma variedade de outros aplicativos. Por exemplo, o PostgreSQL usa o LLVM para gerar dinamicamente código que acelera as consultas SQL e o projeto Numba usa o LLVM para transformar o código Python lento em linguagem de montagem rápida para aplicativos de processamento de numeração de alta velocidade.

As duas principais versões do LLVM de 2018 introduziram uma série de melhorias: melhor suporte para processadores Intel mais novos, cenários de multiprocessadores, mitigações para falhas de processador comuns, ferramentas para avaliar o desempenho do código gerado em arquiteturas de CPU específicas e trabalho adicional no vinculador LLVM,  LLD , que pode produzir executáveis ​​independentes do LLVM em várias plataformas.

TensorFlow
TensorFlow é uma biblioteca de software de código aberto para computação numérica usando gráficos de fluxo de dados. Os nós do gráfico representam operações matemáticas, enquanto as arestas do gráfico representam as matrizes de dados multidimensionais (tensores) que fluem entre elas. Essa arquitetura flexível permite que você implante computação em uma ou mais CPUs ou GPUs em um desktop, servidor ou dispositivo móvel sem reescrever o código. O TensorFlow também inclui o TensorBoard, um kit de ferramentas de visualização de dados.

Na versão 1.12, o TensorFlow é de longe o framework de Deep Learning mais amplamente utilizado e amplamente citado. Embora ainda suporte sua API original de baixo nível, a API de alto nível tf.keras é agora uma implementação do padrão Keras API para o TensorFlow que inclui aprimoramentos específicos do TensorFlow.

Embora o TensorFlow ainda suporte a criação de gráficos de fluxo de dados e sua execução mais tarde em sessões, ele também suporta agora o modo eager execution, uma interface imperativa de definição por execução. O modo de execução antecipada suporta a diferenciação automática por meio da  tf.GradientTape API. Um dos aprimoramentos tf.kerasé o suporte para eager execution.

Tanto a API Keras como o modo de execução ávido serão apresentados no TensorFlow 2.0. Enquanto algumas outras APIs serão descontinuadas na versão 2.0, haverá uma ferramenta de conversão para o código existente, além de uma biblioteca de compatibilidade.

Estimators são o tipo de modelo mais escalável e orientado para produção do TensorFlow. Você pode usar os Estimators pré-fabricados que o Google fornece ou gravar seus próprios Estimators personalizados. Os Estimators são construídos com o tf.keras.layers, o que simplifica a customização. Geralmente, é muito mais fácil criar modelos com Estimators do que com as APIs TensorFlow de baixo nível. Os "Estimators pré-criados permitem que você trabalhe em um nível conceitual muito mais alto do que as APIs básicas do TensorFlow.

Keras
Keras é uma API de alto nível para redes neurais, escrito em Python e capaz de correr em cima do  TensorFlow,  CNTK, ou  Theano. Back ends adicionais, como MXNet e PlaidML, são suportados por terceiros.

A implementação do Keras no TensorFlow tf.keras, possui alguns aprimoramentos específicos do TensorFlow. Keras não é a única API de alto nível simplificada para a construção de modelos de redes neurais, mas sua crescente proeminência no TensorFlow enfatiza sua qualidade e importância. Keras é atualmente a segunda API de redes neurais mais citada, depois do TensorFlow.

O Keras foi criado para ser amigável, modular, fácil de estender e trabalhar com o Python. A API foi “projetada para seres humanos, não para máquinas” e “segue as melhores práticas para reduzir a carga cognitiva”.

Camadas neurais, funções de custo, otimizadores, esquemas de inicialização, funções de ativação e esquemas de regularização são todos módulos autônomos em Keras que você pode combinar para criar novos modelos. Novos módulos são simples de adicionar, como novas classes e funções. Os modelos são definidos em código Python, não em arquivos de configuração de modelo separados.

As maiores razões para usar o Keras são seus princípios orientadores, principalmente o de ser amigável ao usuário. Além da facilidade de aprendizagem e da facilidade de criação de modelos, a Keras oferece as vantagens de ampla adoção, oferece suporte a uma ampla variedade de opções de implantação de produção, suporte a várias GPUs e treinamento distribuído e é respaldada pelo Google, Microsoft, Amazon, Apple e Nvidia. , Uber e outros.

PyTorch
Uma biblioteca para criar tensors e redes neurais dinâmicas em Python com forte aceleração de GPU, o PyTorch é atualmente a terceira estrutura de redes neurais mais citada, depois de TensorFlow e Keras. Uma rede neural dinâmica é aquela que pode mudar de iteração para iteração, por exemplo, permitindo que um modelo PyTorch adicione e remova camadas ocultas durante o treinamento para melhorar sua precisão e generalidade. O PyTorch recria o gráfico em tempo real em cada etapa de iteração.

O PyTorch integra bibliotecas de aceleração como Intel MKLNvidia cuDNN e Nvidia NCCL para maximizar a velocidade. Seu núcleo e backend de rede neural e GPU tensor - TH (Torch), THC (Torch Cuda), THNN (Torch Neural Network) e THCUNN (Torch Cuda Neural Network) - são gravados como bibliotecas independentes com uma API C99.

O PyTorch tem a capacidade de capturar instantaneamente um tensor sempre que ele muda. A estrutura aproxima o gradiente em cada tensor salvo, observando as diferenças entre esse ponto e o tensor anterior. Chamado de "autograd", isso acelera o cálculo de gradientes em até um fator de três. Dado que os otimizadores de descida mais íngremes dependem de gradiente, ele pode acelerar todo o processo de treinamento em até um fator de três. O TensorFlow tem o mesmo recurso.

O PyTorch é suportado principalmente pelo Facebook, mas outros patrocinadores e colaboradores incluem o Twitter, o Salesforce e a Microsoft. A Microsoft contribuiu com tecnologia originada em sua própria estrutura CNTK, para adicionar aos recursos PyTorch herdados do Torch and Caffe .

Horovod
Horovod é um framework de treinamento distribuído para TensorFlow, Keras e PyTorch, criado na Uber. O objetivo do Horovod é tornar o Deep Learning distribuído rápido e fácil de usar. Horovod baseia-se em ideias da implementação do algoritmo ring allreduce do TensorFlow pelo Baidu.

O Uber originalmente tentou usar o TensorFlow distribuído com servidores de parâmetros. Os engenheiros descobriram que o modelo MPI é muito mais simples e requer menos mudanças de código. A Uber afirma que o sistema Horovod possibilita o treinamento de modelos de IA aproximadamente duas vezes mais rápido que uma implantação tradicional do TensorFlow.

Horovod usa Open MPI para passar mensagens entre nós, e Nvidia NCCL para sua versão altamente otimizada do ring allreduce. O Horovod atinge 90% de eficiência de dimensionamento para Inception-v3 e ResNet-101 e 68% de eficiência de escala para VGG-16 em até 512 GPUs Nvidia Pascal.

Em dezembro de 2018, a Uber anunciou que estava transferindo o projeto Horovod para a LF Deep Learning Foundation, da Linux Foundation, para software de inteligência artificial de código aberto.

XGBoost
O XGBoost (eXtreme Gradient Boosting) é uma biblioteca de código aberto de Machine Learning que implementa  aumento de gradiente distribuído para Python, R, Java, Julia e outras linguagens de programação. O código do projeto principal está em C ++.

O XGBoost fornece um algoritmo de otimização de árvore paralela que resolve muitos problemas de Ciência de Dados de maneira rápida e precisa. O mesmo código é executado em máquinas únicas e ambientes distribuídos (Hadoop, MPI, Spark, etc.). A versão distribuída pode ser dimensionada para resolver problemas acima de bilhões de exemplos.

O XGBoost tornou-se famoso nos círculos de Ciência de Dados ao vencer uma série de competições de Kaggle. Originou-se em um projeto de pesquisa na Universidade de Washington. O artigo de 2016 do XGBoost,de Tianqi Chen e Carlos Guestrin, explica os algoritmos de aumento de árvore de gradiente e os refinamentos adicionados ao XGBoost, como pré-reconhecimento e consciência de dispersão em cache. O artigo também compara o desempenho do XGBoost com duas outras implementações de otimização de árvores de aumento de gradiente comumente usadas para classificação, Scikit-learn e R.gbm, e testa XGBoost contra pGBRT (árvores de regressão aumentadas em gradiente paralelo).

H2O Driverless AI
Quando se trata de transformar dados brutos em análise preditiva, o H2O Driverless AI supera todos os demais com sua simplicidade automatizada. Melhores práticas direcionam os especialistas não pertencentes à IA por um caminho de descobertas de padrões ocultos usando o Machine Learning supervisionado e não supervisionado.

Você fornece os dados e isola as variáveis ​​dependentes. Os algoritmos internos da H2O fazem o trabalho pesado de engenharia de recursos, seleção de modelos, treinamento e otimização.

Não é mágica. Ainda é esperado que você entenda seu conjunto de dados e a capacidade de interpretar a saída. Mas as ferramentas visuais e as explicações claras da H2O ajudam muito na compreensão das equipes de negócios, TI e Cientistas de Dados.

O H2O implementou várias atualizações significativas em 2018 - os mais importantes para o processamento de linguagem natural, previsão de séries temporais e aumento de gradiente. As árvores de decisão visual agora mostram graficamente os usuários através da compreensão de como uma previsão foi feita - para esclarecer, por exemplo, por que uma reivindicação de seguro foi sinalizada como fraudulenta. A H2O até começou a disponibilizar seus algoritmos diretamente nas nuvens Amazon e Microsoft.

A H2O Driveless AI não colocará engenheiros de dados na rua ou resolverá todos os problemas avançados de Machine Learning. Mas fornecerá uma alternativa simplificada para construir a inteligência artificial do zero, reduzindo o tempo necessário para que as empresas se tornem mais preditivas e menos reativas.

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail