Home > Tendências

Produtos open source dominam o prêmio Tecnologia do ano 2017, da InfoWorld

Criada para reconhecer as melhores ferramentas e tecnologias para desenvolvedores, profissionais de TI e empresas, a premiação deste ano tem 20 projetos de código aberto entre os 32 vencedores

Da Redação

26/01/2017 às 12h10

toy2017-intro-final-100705414-orig.jpg
Foto:

Olhando para os vencedores do  2017 Technology of the Year Awards, impossível não se surpreender com o número de projetos de código aberto entre eles. Durante vários anos, vimos projetos inovadores - como Hadoop, MongoDB e AngularJS -  conquistarem categorias de Software e Software Livre. Este ano, no entanto, projetos open source brilharam também em outras categorias. Foram 20 entre os 32 vencedores apontados pela equipe da InfoWorld.  Um número que pode ser ainda maior, se considerarmos que muitos dos outros vencedores são serviços em nuvem, que, de uma maneira ou de outra, também fazem uso de fontes abertas.

Aliás, também é impressionante o número de agraciados deste ano que nasceram na nuvem. O LinkedIn foi forçado a reformular o serviço de mensagens, em linha com aplicativos de bate-papo atuais, para processar um trilhão de mensagens por dia. O Facebook criou uma maneira de desenvolver aplicativos para dispositivos móveis em JavaScript e ainda assim obter desempenho similar ao do app nativo. O Google criou uma máquina de aprendizagem e uma biblioteca de redes neurais para impulsionar seus muitos serviços de nuvem inteligente. Essas empresas compartilharam essas ferramentas por meio de projetos de código aberto, e agora seu software está reinventando o processamento de fluxo, desenvolvimento móvel e análise de dados de muitos outros aplicativos e serviços.

Tanto o Facebook quanto o Google contam com alguns produtos no grupo de vencedores. A Microsoft também recebeu vários prêmios, incluindo um para Windows 10 Anniversary Update. não por ser finalmente o Windows 10 que estamos esperando. Mas por ser um release que marca uma mudança importante na gestão do Windows, abrindo a porta para gerenciar PCs como iPhones.

Uma última observação sobre os vencedores de 2017: Segurança também está em alta. A Internet pode não estar ficando mais segura, mas fornecedores de segurança e provedores de nuvem estão todos eles investindo em novas defesas inteligentes.

Confira alguns dos vencedores:

1 - Alexa, da Amazon
O controle de voz fez grandes progressos em 2016, com as caixas de som Echo e Echo Dot levando a conveniência de conversar com a Alexa, a assistente digital da Amazon, a milhões de lares americanos. Além de ferramentas poderosas, os dos modelos do Echo são  também exemplos intrigante de um movimento em direção a  um modelo de computação onipresente, usando recursos de assistentes virtuais inteligentes comandados pela voz. 

O modelo estratégico é claro: a Alexa permite que a Amazon domine os sistemas operacionais em uma nova mídia, o comando por voz.

 Além de acionar serviços Web diversos, APIs específicas da ferramenta de reconhecimento de voz da Amazon fornecem acesso à automação residencial ("Alexa , Ligue as luzes da cozinha ") e dispositivos IoT ( "Alexa, qual é a temperatura no quarto?"), enquanto outras APIs acionam a entrega de informações, narradas pela assistente.

A Amazon espera que o Alexa Voice Services se torne onipresente para todas as formas de comando de voz.  E já trabalha para expandir a assistem virtual para produtos de outras marcas.  Para isso,fornece acesso livre ao sistema, o que significa que desenvolvedores podem integrá-lo a qualquer aparelho dotado de alto-falante e microfone. E existe o Alexa Fund, que oferece verbas a desenvolvedores para que trabalhem em novos aplicativos para a plataforma.

infoworldpralexa

2 - TensorFlow, do Google
Embora grandes empresas tenham construído serviços populares baseados em reconhecimento de fala, Inteligência Artificial, análise de linguagem natural e tradução de idiomas, o Google surge como líder desse segmento. Hoje, seus serviços de Tradução, Mapas, Busca e, principalmente, o Google Now e o Google Assistant dependem de uma biblioteca de machine learning e rede neural chamada TensorFlow. 

Open source desde 2015, a plataforma TensorFlow permite a qualquer desenvolvedor aplicar o molho secreto do Google em seus próprios projetos, desde que aprenda como.

Você pode instalar TensorFlow localmente ou usar a nuvem. Talvez a maneira mais poderosa de usar o TensorFlow seja configurar um projeto do Google Cloud Platform com o Cloud Machine Learning em conjunto com uma instalação TensorFlow local.

Talvez a maneira mais fácil de usar o TensorFlow seja fazer um Deep Learning AMI no Amazon Linux, que já tem TensorFlow e outras quatro bibliotecas de deep learning instaladas. 

Se você está planejando treinar um monte de modelos de deep learming com Big Data, organize definitivamente as instâncias de nuvem com GPUs compatíveis com CUDA, que estão atualmente disponíveis na Amazon, na plataforma Azure, da Microsoft e, em breve, estarão disponíveis também na Google Cloud.

infoworldprtensorFlow

3 - Databricks
Principal mantenedora do Apache Spark, oferece o Spark como um serviço (executado em cima do Amazon Web Services), juntamente com um gerenciador de cluster, uma interface Jupyter-notebook-compatible e dashboards.

Usando Databricks é possível eliminar qualquer necessidade de lidar com hardware para instalar Hadoop ou Spark ou um gerenciador de cluster.

A biblioteca Spark ML fornece algoritmos de aprendizagem de máquinas comuns, tais como classificação, regressão, agrupamento e filtragem colaborativa (mas não redes neurais profundas). Existem ferramentas para extração de recursos, transformação, redução de dimensões e seleção, bem como ferramentas para construir, avaliar e ajustar tubulações de machine learning. O Spark ML também inclui utilitários para salvar e carregar algoritmos, modelos e pipelines para manipulação de dados e cálculos estatísticos e de álgebra linear.

infoworldprdatabricks

4 - Apache Spark
Se você está escrevendo código que precisa de processamento distribuído em um grande cluster e quer que ele seja rápido e in-memory, Spark é a pedida. 

O Apache Spark é um poderoso mecanismo de processamento de código aberto construído em torno de velocidade, facilidade de utilização, e análises sofisticadas. Pode ser bem mais rápido do que o Hadoop para o processamento de dados em grande escala, explorando em computação memória e outras otimizações. Tem APIs fáceis de usar para operar em grandes conjuntos de dados, incluindo uma coleção de operadores para transformar APIs de dados e estrutura de dados familiar para manipulação de dados semi-estruturados.

Está mudando o mundo de dados mais rapidamente do que os fornecedores do Hadoop podem redesenhar seus diagramas de plataforma. O projeto não viu um, mas dois grandes lançamentos em 2016: o 1.6 e o 2.0. Ambos trouxeram grandes melhorias de desempenho e novos recursos (SQL, streaming, aprendizado de máquina e processamento de gráfico). Se você estava esperando que a Spark estivesse "pronta para a produção", já não tem mais nenhuma desculpa. O Spark está pronto para a sua carga de trabalho, e é um prazer usá-lo.

5 - Nvidia CUDA

Se 2016 foi o ano do deep learning, também foi o ano da Nvidia CUDA. A tecnologia por trás das unidades de processamento gráfico (GPUs), que expande suas fronteiras para muito além da aceleração de performance dos jogos 3D em computadores pessoais. 

Hoje, o suporte CUDA está presente em todos os principais pacotes de redes neurais e de deep learning, e todos os principais fornecedores de nuvem anunciaram ou lançaram instâncias de computação que incluem GPUs Nvidia. 

Uma placa Nvidia K80 (com duas GPUs CUDA) é suficiente para acelerar muitos modelos de treinamentos de modelo de deep learning. 

Carros autônomos precisam de um novo tipo de tecnologia para identificar
objetos, evitar obstáculos e mudar de faixa. Há uma boa chance de que
essa evolução virá de processadores gráficos em datacenters ou até mesmo
instalados no porta-mala dos veículos. Com este cenário em mente, a Nvidia desenvolveu duas novas GPUs - a
Tesla P4 e P40 - baseadas na arquitetura Pascal e projetadas para
servidores ou computadores que ajudarão a conduzir carros autônomos. 

As novas placas Teslas têm a potência de GPUs regulares. A P40 possui
3.840 núcleos CUDA, oferece 12 teraflops de desempenho de precisão
simples, tem 24 GB de memória GDDR5 e 250 watts de potência. A P4 tem
2.560 núcleos, oferece 5,5 teraflops de desempenho de precisão simples,
tem 8 GB de memória GDDR5, e conta com até 75 watts de potência. 

infoworldprCUDA

6 - Instâncias do Amazon EC2 P2
Embora os métodos tradicionais de machine learning ainda sejam amplamente utilizados, muitos adotaram técnicas de deep learning como uma alternativa.

Deep learning agrupa unidades de processamento que transformam ou extraem características de entrada, onde cada camada da cadeia toma a saída da camada anterior. Essas cadeias podem ser arbitrariamente longas e, em alguns casos, os dados podem fluir através de partes ou toda a cadeia mais de uma vez.

A natureza dessa computação - executando conjuntos de dados do mesmo programa em paralelo - é o tipo de processamento para o qual as GPUs foram projetadas, razão pela qual tantas bibliotecas de deep learning suportam a otimização de GPU. Para atender a crescente demanda por esse processamento, a Amazon lançou o novo tipo de instância P2 no outono passado.

Com até 16 GPUs Nvidia Tesla GK210, as instâncias do Amazon EC2 P2 tornam o trabalho de formação de redes neurais mais simples, a partir de uma infraestrutura sob demanda. Se uma única máquina de 16 GPUs não for suficiente, a Amazon permite que você crie clusters de instâncias P2, com redes 10 ou 20 Gigabit entre máquinas. Junto com as instâncias P2, a Amazon lançou um novo AMI de deep learning que vem com um punhado de bibliotecas e frameworks otimizados para GPU, para que você possa entrar diretamente. As instâncias P2 estão atualmente disponíveis em parte dos Estados Unidos e Europa.

7 - Google Cloud Bigtable
Algumas vezes, Big Data realmente significa um enorme volume de dados, na casa de centenas de petabytes ou até exabytes. Quando você chega a essa escala, a maioria dos serviços de banco de dados em nuvem não consegue acompanhar.

O Amazon Aurora, um dos bancos de dados relacionais em nuvem mais escaláveis, cobre 64 terabytes. O Redshift, também da Amazon, o segundo banco de dados mais escalável em nuvem NoSQL, lida com algo em torno de um petabyte de dados compactados e manipula apenas muitos dados com armazenamento em disco rígido.

Para lidar com centenas de petabytes ou mais, você precisa executar seu próprio HBase, Cassandra, ou Accumulo clusters, nenhum deles fáceis ou baratos de implantar, instalar ou gerenciar; ou usar o Google Cloud Bigtable.

Cloud Bigtable é um banco de dados público, altamente escalável, baseado em uma tecnologia utilizada internamente pela empresa há anos, que se vale de recursos de NoSQL. Usuários podem ler e escrever dados utilizando APIs (application programming interface) para Apache HBase, com arquitetura de armazenamento através de múltiplos servidores.

Os preços para o Cloud Bigtable se baseiam em uma série de fatores, incluindo o uso da rede, número de nós implantados e o volume de armazenamento utilizado.

8 - DeepSQL
deepSQL é um banco de dados relacional projetado para Big Data e Cloud. Combina  sua abordagem, denominada CASSI, com a popular interface MySQL para re-imaginar o banco de dados relacional.  Através do CASSI, os algoritmos de aprendizado de máquina tomam decisões inteligentes sobre como, quando e onde conduzir operações com base em características de carga de trabalho únicas combinadas com as capacidades do hardware.

O DeepSQL habilita o banco de dados como um serviço (DBaaS) através da integração com plataformas populares de automação de nuvem, incluindo BOSH, Cloud Foundry, Chef, vCloud Director, Vagrant, Compose, OpenStack e outros.

Além de superar o Amazon Aurora para cargas híbridas transacionais e analíticas, o DeepSQL não precisa de ajuste manual, pode ser executado no local ou em qualquer nuvem, e é gratuito para fins de desenvolvimento e teste.

9 - Redis
O Redis é um "servidor de estrutura de dados open source, projetado para armazenar dados in-memory e permitir acesso fácil e extremamente rápido de qualquer informação, através de uma API bastante rica e simples de usar. Capaz de suportar uma vasta gama de possíveis aplicações, ele  pode até mesmo impulsionar o desempenho de grandes estruturas de dados como o Spark. 

Em maio de 2016, a Redis revelou detalhes de um aguardado recurso destinado a tornar seu produto ainda mais multifuncional: o Redis Modules, que permite aos desenvolvedores adicionar novas estruturas de dados e funcionalidade através de uma API.

10 - Docker
O Docker é uma tecnologia de código aberto que permite criar, executar, testar e implantar aplicações distribuídas dentro de "máquinas virtuais" chamadas containers. 

Permite empacotar um software em uma unidade padronizada para desenvolvimento, contendo todo o necessário para a execução: código, runtime, ferramentas do sistema, bibliotecas do sistema, etc. 

Na prática, possibilita a implementação de aplicações rapidamente, de modo confiável e estável, em qualquer ambiente. Desenvolvedores e administradores podem construir, entregar e rodar aplicativos distribuídos a partir do Dock Engine, ferramenta leve de tempo de execução e packaging, e do Docker Hub, serviço em nuvem para compartilhamento de aplicações e automação do fluxo de trabalho.

Acima de tudo, ao contrário da maioria das tecnologias de virtualização, o Docker não faz com que os desenvolvedores queiram jogar seus laptops pela sala. Os desenvolvedores realmente gostam de Docker. No final, isso pode importar mais do que tudo.

Em 2014 a Microsoft anunciou que integrou a plataforma Docker ao Windows Server e ao Microsoft Azure com o objetivo de assegurar melhores experiências de desenvolvimento em Linux.

11 - Kubernetes
2016 foi um grande ano para o Kubernetes. A ferramenta de automatização, distribuição de carga, monitoramento e orquestração entre containers, da Google, experimentou  um desenvolvimento considerável nos últimos 12 meses, melhorando seu suporte para Amazon Web Services, Microsoft Azure e outras plataformas de nuvem. E passou a ser muito usado por satartups em todo o mundo.

O software é projetado para gerenciar grandes números de contêineres, modelo de virtualização proposto pela Docker. Grandes empresas (entre elas o próprio Google) usam esse modelo para construir aplicações que possam ser escaláveis, duplicáveis e atualizáveis.

Agora suporta aplicativos stateful e tecnologias de containers alternativas, como CoreOS Rkt, está integrada na Plataforma Photon, da VMware e forma o núcleo da plataforma OpenShift, da Red Hat. Também adicionou suporte ao Windows, com a capacidade de orquestrar tanto o Hyper-V Containers como o Windows Server Containers.

Este ano esperamos ver a Kubernetes começando a invadir instalações OpenStack em todo o mundo. Se você é um administrador de sistemas ou um engenheiro DevOps e você não mergulhou na tecnologia, é melhor fazê-lo agora, para não ficar para trás!

12 - OSquery
Imagine se todos os arquivos, processos e eventos de sua rede de terminais Windows, MacOS e Linux fossem gravados em um banco de dados em tempo real. Encontrar processos maliciosos, vulnerabilidades de software e outros problemas seria fácil. Esse é o poder do OSquery, um projeto de código aberto do Facebook que faz a varredura através de informações do sistema para descobrir problemas de segurança tão simples como escrever uma consulta SQL.

Na prática, o framework OSQuery expõe o sistema operacional como um banco de dados relacional de alto desempenho.

Em cada sistema Linux, MacOS e Windows, o OSquery cria várias tabelas contendo informações do sistema operacional, como processos em execução, módulos de kernel carregados, conexões de rede abertas, plugins de navegador, eventos de hardware e hashes de arquivos. E a linguagem de consulta é realmente semelhante ao SQL. 

Segundo o Facebook, esta ferramenta poderá ajudar a comunidade de segurança a ter um sistema de monitoramento suportável financeiramente e flexível. Além disso, aoo disponibilizar o Osquery, o Facebook pretende que programadores de todo o mundo criem novos componentes para que o framework se torne mais robusto, completo e personalizável.

InfoworldprOSQuery

13 - MazeRunner
É uma plataforma de cyber deception da Cymmetria que endereça a dura realidade enfrentada por muitos profissionais de segurança: se os atacantes quiserem entrar, eles o farão. Fisgam cibercriminosos e monitora técnicas de ataque, gerando conhecimento a partir dos dados coletados.

A Cyberdeception aceita a intrusão como um fato e neutraliza os atacantes, alimentando a rede com "migalhas de pão" de credenciais, bem como outras suculentas informações para dissuadir os atacantes de bens reais e levá-los a máquinas de decoy, onde são isolados. 

Estas máquinas decoy executam sistemas operacionais reais e serviços reais, mas permitem que você estude o seu atacante, aprenda sobre suas ferramentas e técnicas, e use essas informações para detectar e prevenir ataques futuros. A abordagem é semelhante, mas mais intensa do que as executadas em honeypots.

Um dos objetivos é tornar mais demorado e mais caro para os atacantes o processo de se deslocarna rede, mas mais fácil para os defensores identificar e analisar ameaças. 

14 - Confluent Platform
O Apache Kafka oferece um backbone de mensagens de alto rendimento e baixa latência, mas a falta de recursos empresariais pode tornar o trabalho pesado. A Confluent Platform - construída em Kafka e disponível em edições de código aberto e corporativas - preenche as lacunas, fornecendo uma estrutura e ferramentas mais completas para domar fluxos de dados Kafka.

Kafka é bom para mensagens simples. Operações mais avançadas como junções de fluxo e agregações exigem algo mais. Para depuração, monitoramento e otimização de desempenho em fluxos em tempo real, a Confluent Platform fornece algo mais.

A configuração sem código permite que você acione sua maneira de conectar fontes de fluxo contínuo e incorporar recursos essenciais para uso corporativo como tolerância a falhas de alta capacidade. A análise, o monitoramento e os alertas integrados são rápidos na geração de insights significativos com trilhas de auditoria verificáveis.

Ao contrário do Kafka nativo, a plataforma Confluent realinha de forma transparente as operações assíncronas e os timestamps missequenced para revelar falhas de entrega e problemas de latência em qualquer lugar ao longo do pipeline.

15 - Let’s Encrypt
Todo o tráfego da web deve ser criptografado por padrão. A missão do Let's Encrypt é fazer isso acontecer. Foi criada como uma autoridade de certificação livre para democratizar o acesso aos certificados SSL e melhorar a segurança da internet como um todo. Substitui custo e complexidade por mecanismos abertos e automatizados para a emissão de certificados SHA-2 validados em domínios.

Se você possui um nome de domínio, você pode obter um certificado confiável de Let's Encrypt absolutamente grátis. Implementa um novo protocolo chamado ACME com a finalidade de tornar mais simples a obtenção e a configuração de certificados SSL.

O processo de solicitação e renovação de certificados é automatizado por meio do Certbot, um cliente ACME (Automated Certificate Management Environment) da Electronic Frontier Foundation. Outros clientes estão disponíveis, incluindo scripts Bash, C, Java, PHP e Perl, bem como aquisição manual - mas a expiração de 90 dias nos certificados Let's Encrypt incentiva fortemente o uso de uma ferramenta automatizada.

Muitas empresas de hospedagem já estão integrando o Let’s Encrypt no painel de controle da hospedagem, o que permite que o certificado seja gerado e instalado com poucos cliques e com pouquíssima interação humana. As ferramentas emitem o certificado digital necessário para que qualquer pessoa possa habilitar o protocolo HTTPS (SSL/TLS) em seu(s) website(s).

Do seu lançamento em 2015 até o fim de 2016 foram emitidos mais de 11 milhões de certificados.

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail