5G multiplica a distribuição geográfica dos data centers

https://network-king.net/wp-content/uploads/2022/07/iStock-1367041336-769x414.jpg

Com a disponibilidade crescente do 5G, os operadores de data centers devem mudar rapidamente – transformando contêineres e servidores virtuais em serviços em nuvem e computação de ponta – ou correm o risco de serem deixados para trás.

A baixa latência trazida pelo 5G exige sites de edge computing para se tornar tangível. Ao se levar o processamento de dados para as bordas da rede, fica mais fácil atingir velocidades de no mínimo 50 megabits por segundo, com índices de latência 10 vezes mais baixos do que os oferecidos pelas redes 4G. Em geral, acredita-se que a velocidade de processamento e entrega de dados da rede 5G será até 100 vezes superior à das redes 4G (dados da Next Generation Mobile Networks Alliance).

Para atingir essas metas, operadoras de todos os portes – incluindo os cada vez mais capitalizados e consolidados ISPs – e grandes empresas usuárias já estão estudando como distribuir geograficamente e ampliar o tamanho de seus data centers. As previsões são de que haja uma verdadeira explosão de novos data centers em todas as regiões e todas as verticais, uma vez que sseus operadores precisarão planejar a atualização da infraestrutura existente, desenvolver novas abordagens arquitetônicas para lidar com data centers de borda hiperlocais e aprender a incorporar automação para gerenciamento de rede 5G contínuo.

Segundo a pesquisa Data Center 2025: Mais Próximo do Edge,  realizada em 2019 pela Vertiv, a quantidade de data centers voltados às funções de edge computing deverá crescer 226% até 2025. Para a consultoria norte-americana Medium, até 2025 75% dos dados corporativos serão processados em data centers implementados na borda da rede. Hoje essa marca está em 10%.

Edge em alta

Durante anos, a principal tendência, em todo o mundo, na indústria de data centers foi impulsionada por economias de escala alcançadas por instalações cada vez maiores, os chamados data centers de hiperescala. Por uma boa razão. O custo operacional por rack ou por servidor é menor quando os custos indiretos podem ser compartilhados por um número maior de servidores. A conectividade é mais fácil de adquirir para data centers maiores. E é comparativamente mais fácil construir uma infraestrutura de energia redundante (2N, 2N+) para uma instalação muito grande. 

Do nada há uma década, existem agora mais de 500 data centers gigantes em hiperescala em todo o mundo. É improvável que a tendência seja revertida em breve. Os gigantes da tecnologia, provedores de nuvem, Amazon, Apple, Facebook, Google e Microsoft estão vendo um crescimento robusto ano a ano, à medida que a TI tradicional no local migra gradualmente para a nuvem. Eles precisam de mais poder de computação e mais poder de refrigeração do que nunca. À medida que cresce o compartilhamento de dados gerados e destinados ao uso por outras máquinas (dispositivos automatizados), é razoável esperar que a tendência para o data center maior continue no futuro próximo.

“Ao mesmo tempo, estamos testemunhando uma tendência paralela de micro data centers que estão em locais mais próximos da borda, onde os dados estão sendo gerados e consumidos”, explica Simon Besteman, diretor administrativo da Dutch Cloud Community. Esses data centers na borda da rede são muito menores do que os grandes data centers e complementam a infraestrutura existente. Eles resolvem um problema de conectivida, hoje, e desempenham um papel decisivo na preparação da infraestrutura de TI do futuro. 

O ponto fraco da centralização é que todos os dados estão em um data center no núcleo da rede e todos os usuários devem se conectar ao ponto central para acessar os dados. Isso tem duas consequências: requer uma quantidade significativa de largura de banda e a latência (o tempo que leva para os dados chegarem ao usuário) não pode ser reduzida o suficiente para gerenciar determinados aplicativos com eficiência. 

Aproximar os dados da borda torna possível gerenciar o fluxo de dados com mais eficiência para o usuário. Em vez de ter que se conectar à hiperescala para baixar uma série, os dados são armazenados em cache em um data center Edge mais próximo a eles. Os dados só precisam viajar da instalação de borda para o usuário final. Também permite uma resposta muito mais rápida, pois os dados só precisam percorrer uma curta distância.

A segunda questão abordada pela Edge está em desenvolvimento e chegará à maturidade nos próximos 24 a 36 meses. É o aumento exponencial do volume de dados gerados e trocados. Os dois principais componentes disso são separados, mas relacionados: IoT e 5G.

“Quer seja um grande data center, ou os implementados em unidades de processamento modulares, com tamanhos que variam de um gabinete a um andar, passando por modelos em contêineres, a lógica que rege esse mercado é a mesma: o data center é um ambiente crítico que tem de entregar serviços digitais de excelente qualidade”, explica Luis Arís, gerente de Desenvolvimento de Negócios da Paessler LATAM.

A grande quantidade de dados que as redes 5G devem processar, armazenar e distribuir pode sobrecarregar os data centers e aumentar a demanda por capacidade de computação e infraestruturas associadas. A Cisco informa que o 5G suportará mais de 10% das conexões móveis do mundo até 2023, com velocidade média de 575 Mbps. Isso é 13 vezes mais rápido do que a conexão móvel média hoje.

Downtime, preocupação sempre presente

Downtime do data center segue sendo um risco real. A indisponibilidade derruba as vendas de produtos das empresas baseadas no data center, afetando também o valor de suas marcas. E o data center, por seu lado, é duplamente prejudicado: com SLAs que oferecem 100% de disponibilidade de serviços, qualquer falha de energia, gestão da temperatura e banda pode levar a pesadas penalidades.

“Tenho ouvido desabafos de gestores de data centers em relação à pressão que sofrem nesse momento de forte expansão da infraestrutura digital crítica”, diz Arís. São frases como estas:

  • “Disponibilidade 24×7 é a nossa meta ao monitorar um data center. Ele é o coração da rede e tem de funcionar de forma automatizada, até mesmo se o administrador de sistemas não estiver no local”.

  • “Minha função é prover a disponibilidade correta – contratada em formato de SLA – aos clientes. Isso exige não apenas que eu verifique o status dos dispositivos, mas também que eu seja capaz de analisar o uso e o consumo de parâmetros chaves, como energia e largura de banda. Eu preciso assegurar a qualidade da experiência do usuário e, ao mesmo tempo, evitar um excesso de investimentos em infraestrutura”.

  • “Como administrador de um data center físico, eu necessito ter visibilidade sobre toda a infraestrutura de TI desse ambiente, e ir além, ganhando controle também sobre o entorno do data center”.

Segundo Arís, uma estratégia para vencer esses desafios pode ser a adoção de plataformas de monitoramento agnósticas, capazes de trazer uma visão preditiva sobre todos os aspectos de um data center, incluindo os desafios clássicos de TI, sensores ambientais e dispositivos de segurança. A meta é obter uma visão única sobre o ambiente como um todo e, sempre que recomendável, utilizar dashboards individuais focados em aspectos específicos da fábrica de dados.

É possível utilizar esse tipo de solução para monitorar de forma integrada e a partir de uma única interface um data center, ou milhares de data centers. São soluções de monitoramento “White Label”, diz Arísm, que além de já entregarem centenas de sensores que medem o status de cada elemento do data center e da rede, também podem servir de plataforma de desenvolvimento de novos sensores.

FacebookTwitterLinkedIn