Os data centers chatos feitos de concreto armado não estão mais em voga, as empresas de TI estão tentando colocá-los sobre a água. Existem rumores sobre data centers espaciais - não conseguimos superar um fenômeno tecnologicamente tão bonito.

O rápido crescimento da demanda por recursos de computação levou à construção de um grande número de data centers. O equipamento instalado neles consome megawatts de eletricidade e gera calor. A questão principal era a eficiência energética, que ninguém pensava no início da construção de moradias: hoje, os engenheiros estão aumentando a densidade de energia por rack, reduzindo a PUE (a relação entre o consumo total de energia e o consumo de equipamentos de TI) e estão envolvidos em outro xamanismo tecnológico. Os líderes da indústria estão cada vez mais buscando soluções inovadoras. Hoje vamos tentar descobrir o que há mais nesse processo - ficção ou loucura.
Centro de dados no espaço
O custo de entrega de mercadorias do planeta é alto; com a contratação de pessoal qualificado para prestar serviços de manutenção em equipamentos em órbita, haverá problemas, surgirão dificuldades com a transmissão de dados - a comunicação via satélite não permite alcançar um tempo de resposta tão curto quanto as linhas de fibra óptica. Há um problema com a radiação espacial da qual equipamentos eletrônicos sensíveis devem ser protegidos. O engraçado é que é mais difícil utilizar o calor gerado pelo ferro de TI no espaço do que na Terra. Os amadores chamam de frio, mas o espaço é bastante vazio, exceto pelo conteúdo escasso de átomos diferentes, radiação eletromagnética e uma variedade de partículas elementares. O vácuo não conduz calor, portanto, a única maneira de descarregá-lo no ambiente externo é a radiação eletromagnética, ou seja, enormes radiadores aquecidos que brilharão na faixa de infravermelho.
No entanto, os entusiastas sugerem colocar os data centers no espaço, embora as capacidades em megawatts estejam fora de questão. Entre os exploradores espaciais, existem muitos defensores da teoria da conspiração - existe uma opinião de que em dados de órbita não estarão disponíveis para governos e outros reptilianos (discutiríamos sobre reptilianos). Em 2016, o Cloud Constellation de Los Angeles cortou ativamente os investidores, prometendo, até 2019, colocar todo um petabyte de dados em órbita em sua própria rede de servidores por satélite e satélites de comunicação. O prazo já chegou, mas não há menção a um grupo orbital. Isso não impediu o Cloud Constellation de arrecadar US $ 100 milhões em 2018 .
O StartX ConnectX planeja lançar uma rede de satélites para armazenar carteiras criptográficas e outros dados privados fora do planeta, e a Agência Espacial Britânica alocou mais de £ 4 milhões para criar um supercomputador de demonstração no espaço. É muito cedo para falar sobre outros mundos: a humanidade dificilmente envia sondas automáticas para lá, que tipo de data center é esse? E por que eles são necessários se o sinal de rádio de Marte para a Terra, por exemplo, passa de 3 a 22 minutos, dependendo da posição relativa dos planetas. Opções menos malucas são oferecidas principalmente no campo das comunicações espaciais, mas até agora os data centers extraterrestres permanecem fantásticos, se você ainda não conta com projeções ainda não realizadas de startups.
Na água e debaixo d'água
Vamos descer do mar sem ar para as profundezas do mar: no verão passado, a Microsoft iniciou a segunda fase do projeto Natick , cujo objetivo era criar um data center subaquático modular. Experimentos com servidores de mergulho são realizados desde 2013 e, em 2018, um protótipo do tamanho de um contêiner marítimo foi rebaixado até o fundo da costa da Escócia. Ele contém 12 racks nos quais 864 servidores estão montados. Montar data centers poderosos a partir desses módulos perto de grandes cidades pode ser mais barato (em teoria) do que em terra. A água é caracterizada por alta condutividade térmica e alta capacidade de calor, portanto o problema de resfriamento é simplificado. Com os canais de transmissão de dados, também não são esperadas dificuldades, há muito que a tecnologia para a instalação de linhas de fibra óptica marítima.

Os engenheiros testam os servidores e sistemas de refrigeração do Project Natick no Grupo Naval na França. Foto: news.microsoft.com
Além disso, a Microsoft tem idéias para usar fontes de energia renováveis para alimentar a carga de TI: turbinas de maré, conversores de energia das ondas e até turbinas eólicas instaladas na costa. Não sem problemas: o mar é bastante úmido e os eletrônicos não gostam de umidade. É claro que os módulos do data center devem ser rígidos e tolerantes a falhas, eles terão que trabalhar sem manutenção por um longo tempo. Para evitar a corrosão, o interior dos recipientes será preenchido com nitrogênio.
Os caras do Google não mergulham tão fundo, mas nadam com muita confiança. É verdade, até agora na Internet: em fotos e vídeos. A ideia de colocar um data center a bordo da embarcação não é nova em geral, ela aparece na Internet há 10 anos em várias variações. Alguém está confinado a uma barcaça ao largo da costa, outros querem navegar em águas neutras para não ter problemas com as leis de diferentes países. Você pode se lembrar da empresa Nautilus Data Technologies dos EUA, que desenvolveu um protótipo de um data center flutuante. Os engenheiros do Google lidam com o problema há muito tempo, mas a empresa ficou fria com a ideia de viagens marítimas. Isso não a impediu de patentear um data center impulsionado por pipas nas ondas em 2017. Esses dispositivos originais também devem gerar eletricidade.
A principal idéia aqui é a mesma dos servidores de mergulho - o uso da água do mar para o resfriamento. Ao mesmo tempo, os data centers permanecem em manutenção, o que geralmente é muito bom. É difícil dizer como esses projetos são promissores, mas são bastante viáveis no atual nível de desenvolvimento humano. Os data centers flutuantes podem ser usados, por exemplo, em países com clima marinho quente e falta de terra para construção. Além disso, é uma boa maneira de descartar navios antigos.
Freecooling no Ártico
Retornaremos do mar profundo à terra e daremos uma olhada nos data centers clássicos. Dada a tendência de aumento da densidade de energia por rack e a saída de grandes corporações de TI nos chamados Computação em escala hiperativa, o problema com a dissipação de calor está se tornando mais sério. Até certo ponto, ele pode ser reduzido pelo modo, aumentando o grau aceitável para equipamentos de TI, mas o funcionamento da infraestrutura de engenharia tradicional (refrigeração e fonte de alimentação ininterrupta) pode levar de 30 a 50% do consumo de energia do data center. O principal item de despesa ao mesmo tempo - usando poderosos compressores de ar condicionado. Seria uma decisão lógica tentar abandoná-los pelo menos parcialmente aplicando um dos esquemas existentes de refrigeração livre (freecooling).
Se você não se aprofundar nos detalhes técnicos, há duas opções: resfriamento direto de circuito único das casas das máquinas com ar externo com recirculação parcial no inverno, e sistemas de circuito duplo com recirculação de ar nas casas das máquinas e dispositivos de recuperação. No primeiro caso, o ar aquecido das zonas quentes é liberado na atmosfera e o ar limpo da rua é alimentado nas zonas frias. Às vezes, também precisa ser seco ou umedecido, e os filtros exigem substituição regular. Se estiver muito frio lá fora, a recirculação parcial é ativada.
O segundo esquema assume a presença de dois circuitos abertos: o data center circula no interior e o ar externo é fornecido para o exterior. A transferência de calor ocorre em um aparelho regenerativo. Também pode haver opções diferentes, focaremos nos mais interessantes - um trocador de calor rotativo, também chamado de sistema de resfriamento de Kyoto. O princípio de sua operação é muito simples: uma roda de metal maciça gira lentamente e transfere o calor do circuito interno para o externo.
Infelizmente, o resfriamento livre não pode ser usado durante todo o ano por causa dos requisitos rigorosos para a temperatura externa: se for muito alta, a configuração de frio artificial é ativada automaticamente. Nas regiões do norte, o uso do freecooling permite mantê-los desativados em até 80% do tempo, se você usar os indicadores médios do ano. Os trocadores de calor rotativos mais eficientes podem reduzir a parcela do consumo de energia do sistema de refrigeração para 5% a 7% do consumo total do data center, e esse é um excelente resultado.
Outro movimento lógico é mover os datacenters para altas latitudes. Infelizmente, funciona apenas parcialmente. Os data centers no Ártico não se enraizaram particularmente devido ao grande número de dificuldades associadas à sua construção e operação. Em regiões tão afastadas da civilização, há problemas com os canais de alimentação e comunicação, bem como com a disponibilidade de pessoal qualificado - poucos especialistas estão prontos para torcer os rabos dos ursos polares. O engraçado é que o frio no sistema de freecooling também pode ser caro devido ao ar muito seco. Se não estiver umedecido, uma forte carga estática se acumulará nos componentes eletrônicos. Obviamente, as empresas estão tentando construir data centers nas regiões do norte, mas não escalam o gelo polar e ainda preferem o bairro das megacidades.
Aquecemos a casa, não a atmosfera
O calor gerado pelos data centers foi descarregado na atmosfera e, quando se tornou muito, as pessoas pensaram em usar um subproduto para fins pacíficos. A idéia de recuperação de calor útil é óbvia, mas não é tão fácil de realizar devido à demanda instável e por várias outras razões. Devido à alta temperatura na rua, a maioria dos problemas com o resfriamento ocorre no verão e, exatamente nessa época, a demanda por calor entre a população é mínima. No entanto, existem muitos projetos semelhantes no Ocidente, um deles foi lançado pela Yandex. Seu data center está aquecendo uma pequena cidade finlandesa .
Resumo e Conclusões
Se ignorarmos grandes idéias, a construção e operação de um data center são um grande capital e custos operacionais que os negócios gostariam de reduzir. Aqui descartamos imediatamente o tema cósmico, porque é incompatível com a redução de gastos no futuro próximo. Projetos offshore são possíveis, mas ainda não emergiram do estágio embrionário. Acontece que a única maneira real de reduzir custos é melhorar os data centers tradicionais. Primeiro de tudo, aumentando sua eficiência energética através do uso de freecooling e recuperação de calor benéfica. Nos próximos anos, essa é a principal tendência no desenvolvimento da construção de moradias, e então cientistas e engenheiros podem nos dar algo não tão prosaico - a ficção científica às vezes se torna realidade.