Home > Gestão

Seis passos para um data center mais eficiente

O aumento da complexidade das operações e a preocupação com a questão da energia tornaram oa data centers desafios a serem vencidos pelos CIOs

John E. West*

17/12/2007 às 12h49

tech_int.jpg
Foto:

Até recentemente, muitas organizações não tinham de pensar na infra-estrutura do data center mais de uma vez em cada década. Contanto que houvesse espaço suficiente para abrigar o novo rack de servidores, as necessidades de energia e refrigeração se resolveriam por conta própria. Mas esses tempos estão ficando para trás à medida que aumenta a demanda por potência de computação e, conseqüentemente, por fornecimento de energia.

De acordo com a empresa de pesquisa IDC, a infra-estrutura de suporte necessária para acomodar e operar servidores só vem atrás do preço do sistema dentre as preocupações dos gerentes de data center. Steve Conway, vice-presidente de pesquisa de computação de alto-desempenho do IDC, diz que “esta preocupação ocupava a 12a posição apenas três a quatro anos atrás, o que significa que não chegava a ser realmente uma preocupação”.

Esta mudança de prioridade reflete as transformações em tecnologia e um forte aumento da demanda por potência de processamento. Virtualização e processadores multicore estão permitindo que muito mais potência seja colocada em uma área muito menor. E empresas de todos os tipos estão se apoiando em computação conectada para processos de negócio core, o que as leva a pôr ainda mais racks de computadores nos data centers existentes. O Gartner prevê que, em 2008, metade dos data centers de todo o mundo não terão a infra-estrutura necessária para suprir os requisitos de energia e refrigeração do equipamento de alta densidade mais avançado.

Com estas mudanças, gerentes de data centers estão enfrentando problemas que gerentes de centros de supercomputação científica e técnica high-end, como eu, enfrentam há décadas: posicionar adequadamente o equipamento de suporte da infra-estrutura, otimizar a refrigeração para altas densidades de racks de servidores, equilibrar a eficiência do data center com as necessidades do negócio e rastrear todos os pequenos detalhes que podem levar ao sucesso ou fracasso de uma implementação.

O data center no qual trabalho, um centro de supercomputação do Departamento de Defesa localizado no Army Engineer Research and Development Center (ERDC), está em meio a uma iniciativa de dois anos para reformular totalmente a infra-estrutura. Projetar um novo data center ou reformar um antigo é um processo complexo, mas com as seis idéias abaixo — testadas em nossas experiências no decorrer da década passada e embasadas na modernização contínua da infra-estrutura do ERDC —  você estará no caminho certo.

1. Decida se você precisa realmente ter seu próprio data center
Aumentar a infra-estrutura de computação é um processo caro e desafiador. Antes de se dedicar ao seu próximo upgrade, pergunte a si mesmo: “Preciso ter meu próprio data center?” Uma infra-estrutura minimamente robusta incluirá equipamento de comutação de energia e geradores. Mas quase ninguém pára por aí. A tolerância a falhas abrange baterias ou flywheels para o UPS (uninterruptible power supply), abastecimento de água reserva em caso de interrupção do fornecimento de água pela empresa concessionária, componentes redundantes e, possivelmente, múltiplas conexões de energia comerciais independentes. Você também tem de se proteger contra incêndios e desastres naturais. E, quando o data center estiver pronto, você precisará de pessoal para monitorá-lo e mantê-lo.

“A menos que você atue em um setor no qual ter um data center interno ultra eficiente se traduz diretamente em receita, talvez você esteja mais bem servido rodando seus aplicativos no ambiente terceiros”, observou Werner Vogels, CTO da Amazon, na conferência Next Generation Data Center. Esta solução não é adequada para todo mundo, mas vale a pena considerá-la à medida que as tarifas das empresas de serviços públicos aumentam e a demanda crescente exige cada vez mais da infra-estrutura de suporte.

++++

2. Pese os custos e os benefícios do design verde
O aumento do custo e do consumo está trazendo as preocupações com energia para o primeiro plano nas conversas sobre planejamento de TI. Itens como transformadores, fiação elétrica, refrigeração e UPS podem ter perdas elétricas fixas contínuas, roubando uma fatia da sua energia disponível antes mesmo que ela chegue ao primeiro servidor.

O “Green Grid”, um consórcio de empresas de tecnologia da informação interessadas em melhorar a eficiência de energia do data center, recomenda que você empreenda um right-sizing na infra-estrutura: elimine componentes redundantes e instale somente o equipamento necessário para fazer o data center funcionar hoje. De acordo com o guia para data centers energeticamente eficientes (Guidelines for Energy-Efficient Data Centers), do consórcio, o right-sizing da infra-estrutura pode proporcionar economia de 50% na conta de energia elétrica.

Segundo o relatório mais recente de confiabilidade dos serviços públicos de energia no longo prazo, realizado pelo North American Electric Reliability Council, a demanda por eletricidade deverá aumentar 19% nos próximos 10 anos, mas a capacidade de geração deverá crescer somente 6%. Isso significa que a margem de capacidade está caindo a cada ano, e aumentos na demanda ou eventos climáticos regionais, mais do que nunca, estão propensos a causar interrupções no fornecimento de energia ao redor do mundo.

A previsão de interrupções mais freqüentes no fornecimento comercial de energia no curto prazo deve motivar os gerentes de data center a projetar sua infra-estrutura tendo em mente a disponibilidade de energia, incluindo equipamento redundante de distribuição e geração de energia para proteger contra falha do sistema.

Indubitavelmente, você precisa projetar sua infra-estrutura para ser a mais eficiente possível (e até tomar medidas como especificar fontes de alimentação de alta eficiência em servidores). Mas até que ponto você poderá ter uma infra-estrutura “verde” de distribuição de energia dependerá do valor da disponibilidade contínua de eletricidade para sua organização e dos custos de expandir a capacidade. O trabalho de supercomputação no ERDC, por exemplo, exige disponibilidade muito robusta dos nossos computadores.

Nossa infra-estrutura de distribuição de eletricidade conta com chaves, baterias e geradores elétricos redundantes. Podemos realizar manutenção rotineira sem expor as operações a uma interrupção, e dar continuidade a operações em situações de emergência por períodos mais longos durante os quais pode-se esperar uma falha em um destes componentes. Isso aumenta nossas perdas fixas de eletricidade, mas é inevitável em função dos nossos requisitos operacionais.

3. Aumente a flexibilidade ao projetar o resfriamento
Os computadores são muito eficientes em duas coisas: executar cálculos em alta velocidade e transformar eletricidade em calor. Cerca de 30% da energia que chega ao data center é transformada em calor dentro dos servidores.

A abordagem tradicional de resfriamento coloca grandes chillers fora das instalações para resfriar água, que é então bombeada para unidades de CRAC (computer room air-conditioning) acomodadas no chão da sala de máquinas. Essa abordagem enche a sala inteira com ar frio e oferece muito pouca flexibilidade de direcionamento para pontos quentes específicos.

++++

O conceito de “closely coupled cooling” entra e sai de moda ao longo dos anos em centros de supercomputação. Ele é eficiente e eficaz. A idéia é colocar o resfriamento muito próximo da fonte do calor que ele visa a remover. Permite o resfriamento e o controle direcionados de pontos quentes e pode resultar em caminhos de ar mais curtos que requerem menos potência de ventilador para deslocar o ar frio ao redor da sala.

Closely coupled cooling também possibilita densidades de rack até quatro vezes mais altas do que a densidade de uma solução de refrigeração convencional. Com a demanda dos clientes elevando as densidades de rack, todos os grandes fornecedores de servidores agora oferecem configurações fortemente acopladas.

Existem muitas soluções de closely coupled cooling baseadas em rack e em chip. Há designs que instalam o resfriamento ao longo dos racks de servidores. Outros o colocam no topo de cada rack em uma abordagem “de cima para baixo”. Também existem soluções que fornecem água resfriada diretamente para a porta traseira dos racks ou intercalam resfriadores em gavetas dentro de racks alternando com gavetas de computadores.

As soluções de resfriamento baseadas em chip têm duas variantes básicas. A mais simples fornece água fria para um ou mais radiadores localizados sobre fontes de calor no servidor. Os sistemas mais complexos aplicam líquido inerte diretamente nos chips do servidor em um sistema de loop fechado. Só recentemente esta tecnologia foi adotada para servidores commodity, mas ela é emprega há décadas na indústria de supercomputação. No ano passado, o centro de supercomputação do ERDC estava usando troca de calor de vaporização no nível do chip em alguns de seus supercomputadores Cray.

Todas estas opções requerem tubulação de água resfriada para os racks de computadores e você precisa planejar para isso quando projetar a tubulação do data center. Se a idéia de mover água para o “coração” do seu data center fizer seu coração acelerar, não tema: existe um vasto corpo de conhecimento de engenharia sobre como minimizar os riscos. Você vai colocar os canos de água o mais baixo possível sob o chão elevado, instalar detectores de vazamento, manter a passagem de eletricidade distante dos canos e fornecer recursos de contenção de vazamento como drenos por gravidade e aparadores de pingos.

4. Pense no piso do chão: são os detalhes que importam
Se você não está planejando ou não tem condição de planejar para closely coupled cooling, pode tomar outras medidas para melhorar a eficiência do resfriamento. Reduza o calibre de cabos e canos que você põe sob o chão elevado da sala de máquinas. As unidades CRAC usam este espaço para mover ar frio para os computadores, e a eficácia da energia utilizada no resfriamento pode aumentar imensamente se você reduzir as interrupções que este ar enfrenta. Diminuir as obstruções sob o chão também ajuda a eliminar os pontos quentes do data center e impedir os circuladores de ar de operar um contra o outro.

++++

Outra medida que você pode tomar é encomendar um estudo da dinâmica de fluidos do data center ou comprar o software necessário para que você mesmo realize o estudo. Esta abordagem utiliza um modelo de computador para simular o fluxo de ar ao redor do data center e pode ajudar a identificar as causas e soluções de problemas de resfriamento, incluindo a colocação ideal de piso perfurado.

O centro de computação do ERDC adotou esta estratégia há vários anos para garantir que extraíssemos o máximo do nosso resfriamento. O piso perfurado é situado na frente dos racks na ala fria de servidores no data center. “Surpreendentemente, a colocação mais eficaz do piso perfurado nem sempre é bem em frente da máquina”, diz Paula Lindsey, chefe de integração do centro. O estudo da dinâmica de fluidos mostrou que precisávamos aumentar o diâmetro das perfurações e concentrar trechos adicionais de piso perfurado em área críticas.

5. Desloque o equipamento de suporte para fora das instalações
A colocação apropriada dos sistemas de suporte da infra-estrutura de computador melhora a eficiência e facilita a expansão de capacidade no futuro. Uma das medidas mais importantes que você pode tomar é mover o máximo possível de equipamento de energia e refrigeração para fora do data center. Na verdade, se você tiver espaço, uma boa solução é mover a maior parte destes itens para fora do prédio.

Quando precisamos fazer um ajuste de curto prazo para obter 2 megawatts adicionais de energia para um novo supercomputador no ERDC, por exemplo, descobrimos que era necessário acrescentar UPS e gerador que não cabiam no prédio onde está o restante da infra-estrutura de distribuição elétrica. Para piorar as coisas, o prédio havia sido construído há 10 anos entre a base de uma colina e uma estrada. A solução — colocar o equipamento do lado de fora, em uma área cortada na colina — era cara e ocasionava atrasos em um cronograma já apertado.

Nosso novo design de longo prazo coloca a maioria destes componentes fora do prédio, em unidades modulares, em instalações recém-criadas. “Esta mudança elimina as limitações que as paredes do prédio nos impõem quando precisamos aumentar nossa capacidade e nos dá a flexibilidade de que necessitamos por pelo menos mais uma década”, afirma Greg Rottman, engenheiro encarregado de implementar o upgrade.

++++

Além do mais, transferir o equipamento de distribuição e suporte para fora é uma iniciativa ecologicamente correta. Em um relatório publicado este ano, The Green Grid descobriu que 25% da eletricidade que vai para o data center é convertida em calor nas unidades de distribuição de energia, UPSs e switchgear. Transferir o equipamento para fora do data center e, se possível, para fora do prédio reduz o consumo geral de energia ao eliminar a necessidade de remover o calor gerado por estes componentes.

6. Monitore a energia.
Você sabe quanta energia está usando? Seus servidores estão consumindo mais ou menos eletricidade do que as especificações do fabricante dizem que eles deveriam consumir? No próximo upgrade de máquinas, quão perto você estará de atingir o limite de capacidade das instalações?

Um sistema de monitoramento de infra-estrutura para o equipamento de energia e refrigeração precisa fazer parte de qualquer upgrade que você esteja planejando. Gerenciar e monitorar ativamente o uso de energia ajudará você a planejar o futuro e avaliar a eficácia das medidas que toma para aprimorar a eficiência do data center.

Pode ser um desafio convencer os gerentes seniores a financiar melhorias no data center não relacionadas diretamente a resultados comerciais. Talvez você tenha que criar seu sistema de monitoramento peça por peça de acordo com seu orçamento. Mas faz sentido acrescentar monitoramento de energia ao data center antes de empreender mudanças expressivas destinadas a economizar energia e melhorar a eficiência. Isso permitirá que você estabeleça uma base importante para avaliar a eficácia de suas mudanças e planejar o futuro mais efetivamente.

*John West fellow sênior do Programa de Modernização da Computação de Alto Desempenho do Departamento de Defesa e diretor executivo do centro de supercomputação deste programa no U.S. Army Engineer Research and Development Center em Vicksburg, Miss.

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail