Data centers inusitados

https://network-king.net/wp-content/uploads/2021/06/Stockholm-stringio-769x450.png

Em março de 2021 a OVH teve um de seus data centers em Estrasburgo, na França, destruído pelo fogo e outro parcialmente danificado, paralizando os serviços de mais de 3 milhões de websites, incluindo agências governamentais, bancos, lojas, serviços de notícias e jogos. A parada de uma das maiores empresas de data centers da Europa, concorrente direta da Amazon Web Services, Microsoft Azure e Google Cloud, rendeu um prejuízo de milhões de euros aos clientes da empresa.

Em um tempo em que os dados já são mais importantes que o petróleo, não é difícil imaginar o estrago que isso causou também à empresa, sua imagem e reputação. O caso da OVH, no entanto, serve de exemplo duplo: se por um lado mostrou o que pode acontecer quando um desastre atinge um grande centro operacional, por outro ilustrou como deve se comportar a sua gestão perante tamanha crise.

O que os clientes esperam é total transparência em relação às causas, os estragos e às ações sendo tomadas pelo data center para que seus serviços retornem à normalidade. E foi o que a OVH aparentemente fez. Mas sabe-se que nem sempre é assim. Ao tomar a decisão de terceirizar os serviços de processamento e armazenamento de informações para um provedor de nuvem é preciso ponderar os riscos e os custos. E o que a história mostra é que os retornos são em geral maiores, mesmo levando em conta esses acontecimentos.

À parte dos desastres “naturais”, estão os humanos. Nas últimas semanas um ataque cibernético ao oleoduto da Colonial na costa leste dos EUA disruptou o fornecimento no país todo, causando aumento nos preços de combustível e uma grande movimentação nacional. Os hackers invadiram os servidores da empresa, tomaram posse dos controles digitais do oleoduto e pediram um resgate. Em fevereiro um hacker obteve acesso ao sistema hídrico de uma cidade na Florida e tentou injetar uma quantidade perigosa de um composto químico na circulação de água. E há alguns anos um grupo invadiu o sistema de estações elétricas na Ucrânia, desligando interruptores eletrônicos e causando um blackout que afetou milhares de pessoas.

São riscos que qualquer empresa corre quando tem seus sistemas conectados de algum modo à internet. E os motivos humanos são os mais diversos possíveis, como ganho financeiro, protesto, vingança, concorrência, ou qualquer outro que cause algum dano à empresa atacada (ou seus clientes) e algum bônus ao atacante.

Assim, não é surpresa que muitos data centers estejam investindo em maneiras mais eficientes de proteção e recuperação de desastres, como terremotos, tornados, incêndios, explosões, falta de energia, sobrecargas, invasões, indisponibilidade de rede, entre outros tantos que podem – e vão – acontecer. Entre as investidas, duas nos chamam mais a atenção: a construção de data centers subterrâneos e a instalação de data centers submarinos.

A busca por locais mais “escondidos” já levou dezenas de empresas a construírem data centers subterrâneos, muitas aproveitando estruturas já prontas, que vão desde minas de calcário abandonadas, como o Data Center Bluebird no Missouri, minas glaciares, como a Lefdal Mine na Finlândia, abrigos nucleares, como o Data Center Bahnhof na Suécia, até porões de igrejas, como o Centro de Supercomputação de Barcelona, MareNostrum. O subsolo oferece grandes vantagens no controle de temperatura, custos de construção e o fato de estarem fora de vista do público.

MareNostrum, Centro de Supercomputação de Barcelona

Como grande parte dos custos de um data center é o consumo de energia, ao escolher um local subterrâneo as empresas têm buscado acesso a energia renovável e mais barata, com moinhos de vento, ou energia solar, por exemplo. E levando em conta que 50% dos custos de energia de um data center é gasto em manter a temperatura fria e estável, quanto menor a amplitude térmica do ambiente, melhor, sem a incidência direta de luz solar durante o dia e protegido por paredes grossas de pedra. A ventilação, nesse caso, pode ser feita boa parte naturalmente, por dutos verticais ou horizontais, ou pela circulação de água glaciar, em alguns casos.

Entre os desafios que todo data center tem que endereçar estão todas as redundâncias de conexão de energia e de rede. Enquanto esse ponto é fácil de endereçar em um data center terrestre, seja acima ou abaixo do nível do solo, debaixo d’água isso é mais complicado. A Microsoft retirou em julho de 2020 um data center experimental de dentro do oceano, para avaliar o estado das máquinas e estruturas, internas e externas, após pouco mais de 2 anos de submersão. O projeto Natick estava usando a energia solar e mecânica, obtida das ondas do mar, para manter-se funcionando. Em sua conexão de rede com a superfície, usava até criptografia pós-quântica, para garantir a segurança dos dados ali processados.

Projeto Natick da Microsoft

Instalado em um cilindro metálico de não mais que 12 metros de comprimento e afundado sob quase 120 metros de água salina na costa da Escócia, perto das ilhas Orkney, o data center abrigava 12 racks com 864 servidores e 27,6 petabytes de armazenamento, consumindo perto de 240kW. E estava cheio de gás Nitrogênio, para evitar o desgaste causado pelo Oxigênio às partes metálicas. Durante o tempo do experimento, a companhia comparou seu desempenho com o de um outro na superfície, executando sempre os mesmos processos e com as mesmas conexões. E no final concluiu que o índice de confiança do projeto submarino havia sido oito vezes maior que o equivalente na superfície, com menos falhas nos servidores.

Apesar de ser um projeto experimental, ele prova que a construção de data centers submarinos não está longe de virar mainstream: é possível, viável e tem custos menores e maior confiabilidade que um data center terrestre. E está isolado de erros humanos e outros desastres que podem acontecer na superfície. Por outro, lado apresenta a impossibilidade de manipulação física de seus componentes e a exposição – ainda que parcial – de seus cabos de conexão.

Não importa qual o tipo de data center, vale lembrar que o serviço precisa, além de ter bom custo-benefício, incluir redundância, segurança, suporte local, conexões variadas, flexibilidade de composições e procedimentos validados de recuperação de desastres. Se tiver certificações específicas para a sua aplicação e fornecer estatísticas de uptime, tanto melhor.

Como no caso da OVH, ter redundância e backup local não é suficiente. É preciso que seus dados e algoritmos estejam também armazenados em outra localização, que possa ser instanciada de modo imediato em caso de pane na instalação original. E esse processo deve ser feito e revisado pela sua empresa na contratação do serviço, para garantir que esteja funcionando. Não são raros os casos em que se constroem processos intensos de backup, para só no dia em que há uma falha de verdade verificar-se que os backups estão corrompidos e não há modo algum de recuperá-los. Portanto, o processo de recuperação deve ser efetuado de modo cíclico.

Os ataques cibernéticos cada vez mais frequentes também implicam em ter uma segurança reforçada, tanto lógica quanto física, com mecanismos de criptografia no armazenamento, processamento e transmissão de dados, sistemas de prevenção, como firewalls, roteamento, alertas e bloqueio de acesso. O prejuízo de um ataque tipo ransomware pode ser até pequeno comparado com os custos legais de vazamento de dados de clientes.

Muitos data centers já passaram por inspeções de órgãos de certificação e oferecem selos específicos, como o HIPAA para serviços de saúde, ISO 20000-1 de serviços de TI e 27001 de segurança, SSAE 18, PCI DSS para serviços financeiros, entre outras. Dependendo do serviço que sua empresa presta a seus clientes e da região do mundo em que estão, uma ou mais dessas certificações serão necessárias.

A depender da distância que separa seus funcionários do data center escolhido para executar seus sistemas e armazenar seus dados, será benéfico que a empresa contratada também ofereça suporte remoto 24×7 todos os dias do ano, por meio de técnicos especialistas, que possam acessar fisicamente seu servidor e realizar localmente operações que não possam ser feitas de maneira remota, via SSH por exemplo. Às vezes, em serviços de co-locação, é necessário trocar uma placa de rede, um módulo de memória, ou até um disco e o custo de enviar um funcionário seu pode não ser compensatório.

A cobertura geográfica da rede de comunicação e o provedor de última milha que vai conectar seus escritórios, seus funcionários e seus data centers é um outro ponto crítico. Em geral, os data centers oferecem uma variedade de opções de conexão, que podem ser redundantes ou não (ter mais de uma entrada na rede para o caso de uma delas falhar). Mais importante que a velocidade, variedade e redundância, porém, é a latência do sinal. Em aplicações financeiras conectadas a bolsas de valores, por exemplo, alguns nanossegundos podem fazer a diferença no valor obtido na compra e venda de ações, podendo implicar em oportunidades milionárias perdidas. E na gestão de um oleoduto ou grid elétrico, esse tempo pode significar um vazamento ou uma explosão.

Por isso, a escolha do tipo de arquitetura de nuvem entre as opções oferecidas pelo data center deve ser muito ponderada. Aplicações financeiras de alta frequência, como a compra e venda de ações, podem beneficar-se de uma co-locação junto a servidores da bolsa, enquanto sistemas que requeiram muita segurança em transações bancárias deve aproveitar melhor uma arquitetura híbrida. Nesse sentido, quanto maior a flexibilidade de opções do data center, melhor.

E, claro, nunca deixe de verificar as estatísticas de uptime, volume de carga e número de clientes, bem como conhecer alguns casos de sucesso de clientes do seu futuro contratado. Em especial, saber como o data center lida com potenciais crises ajuda a prever o tipo de relacionamento que sua empresa terá se algo sair dos eixos. Busque sempre entender quais os processos de recuperação em caso de desastres naturais – e os causados por humanos – e tentar simular o comportamento dos seus serviços uma vez instalados e rodando remotamente. Pergunte o que acontece no caso de um terremoto, um tsunami, uma falha elétrica, uma interrupção na rede de um provedor, um ataque de negação de serviço, uma invasão de hackers, ou mesmo se um rato roer os canos dos sprinklers.

Subterrâneo ou submarino, seu próximo data center pode não ser nem aqui na Terra. Se depender da NASA e de alguns parceiros, em alguns anos haverá a possibilidade de processar seus dados em órbita mas, claro, com uma latência ainda bem maior que as redes terrestres, reduzindo bastante o escopo das operações possíveis. Contudo, levar o processamento ao espaço abre novas frentes de pesquisa de materiais e genéticas, em condições muito diferentes das que podem ser simuladas na superfície do planeta. Até lá, as opções locais ainda são muitas e bem mais confiáveis.

FacebookTwitterLinkedIn