Armazenar, gerenciar e extrair valor de dados consome uma grande quantidade de energia. Como resolver a equação?
Don Newell *
Publicada em 20 de setembro de 2011 às 14h04
Em discussões de negócios sobre tecnologia, pode ser fácil se perder nos argumentos. Como os departamentos de TI e mídia tentam prever a próxima onda de aplicações, a viabilidade de uma plataforma sobre a outra fica posta em causa, assim como o hype em torno de tecnologias emergentes. A tendência de se concentrar sobre a próxima onda leva ao risco de ignorar problemas mais urgentes.
No presente, não há nenhuma discussão maior do que a tecnologia de cloud computing. A mídia está saturada de debates sobre nuvem. Mas, nuvem é hype ou realidade? Como você define a computação em nuvem? Quais aplicativos são mais adequados para a nuvem? Na verdade, a pergunta com que todos deveríamos nos ocupar é o que os principais desafios de computação em nuvem podem resolver.
A resposta é a crise de energia em TI.
A palavra "crise" pode soar como uma palavra hiperbólica, mas é muito real. A explosão de dados on line é bem documentada. O IDC estima que o "universo digital" atinja 1800000000000 de gigabytes até o final de 2011. E, a partir de 2017, data centers representarão quase 2% do total da eletricidade consumida nos EUA. A realidade é que armazenar, gerenciar e extrair valor de dados consome uma grande quantidade de energia. E, embora este aumento exponencial de dados e consumo de energia seja algo administrável, agora, no ritmo que evolui, em breve deixará de ser. Uma solução inovadora (ou conjunto de soluções) é necessária para ajustar e reagir a esta tendência.
Cloud computing oferece uma nova abordagem.
A maioria concorda que a computação em nuvem tem sido uma evolução dos modelos anteriores. A chave para a cloud é a possibilidade de fornecer escalabilidade imediata para empresas, de todos os tamanhos, de forma extremamente flexível. As principais vantagens que impulsionam a nuvem têm sido essencialmente a simplicidade, a flexibilidade e o custo. Mas, nos últimos anos, como computação em nuvem tem crescido em importância, outros fatores entraram em jogo.
Primeiro, como a crise econômica abalou os próprios fundamentos do mercado de TI, a compreensão de como obter mais de seus investimentos se tornou imprescindível. Segundo, com as organizações se esforçando para reduzir custos e maximizar os recursos, passaram a ser confrontadas com a crescente demanda de computação e os crescentes custos da energia, o que é contra-produtivo para resolver a equação custo/benefício.
Se apenas fosse tão simples quanto parece. A eficiência energética é a questão maior única associada à computação em nuvem e torna imperativo que os fornecedores de cloud implementem soluções de energia extremamente eficientes no servidor. Isso torna a TI viável não só hoje, mas no futuro também.
A longo prazo, os data centers serão projetados para funcionar a uma temperatura muito mais elevada, que torne o resfriamento menos necessário. Arrefecimento de ar livre pode ser uma opção legítima nos próximos anos, eliminando a necessidade de condicionadores de ar caros dentro do data center, que teria um impacto drástico sobre os gastos com TI.
No curto prazo, no entanto, podemos esperar que os data centers passem a ser construídos em estreita proximidade com fontes de energia, bem como fontes naturais de água. As primeiras ajudam a reduzir a perda de potência na transmissão, enquanto as segundas reduzem a necessidade de técnicas mais avançadas de resfriamento. Se estamos passando de um mundo de muitos pequenos data centers localizados em todos os lugares a para o de grandes data centers de cloud localizados estrategicamente em todo o mundo, é imperativo pensar muito sobre como realmente otimizar esses data centers. Nos próximos anos, é provável que muitos mega data centers sejam agrupados em regiões específicas do mundo devido aos seus benefícios inerentes. O que já está começando a ocorrer no Brasil.
O debate sobre o papel que a computação em nuvem irá desempenhar no futuro da TI, não pode ignorar o elefante na sala. O consumo de energia é um problema grande e iminente em TI, e torna crítica a concepção dos futuros data centers. As empresas devem ter novas abordagens para reduzir significativamente o esforço financeiro e ambiental que o consumo de energia dos servidores está causando. Embora a eficiência energética em TI venha sendo um tema importante nos últimos anos, agora estamos na beira de uma mudança incrível quando se trata de energia neste setor - para melhor. Enquanto nos preparamos para esta mudança, será necessário um esforço coletivo de fornecedores de tecnologia, regulamentação federal e local, profissionais de TI e - é claro - CIOs para definir a agenda para as empresas, grandes e pequenas.
(*) Don Newell é CTO of Server da AMD.