Assine a newsletter semanal!
Políticas de privacidade
Assine a Newsletter!
Home > Monitoramento de TI > Datacenters > Avanços em interconexões ópticas são vitais para data centers desagregados
Março 14, 2023
No início de março, a empresa Ayar Labs, fornecedora de soluções de conectividade óptica para aplicações com uso intensivo de dados, fez uma demonstração pública do que afirma ser o primeiro chiplet CMOS compacto com capacidade de 4 terabits por segundo (Tbps) de transferência. A empresa agora fornece soluções ópticas integradas de E/S com latência abaixo de 10 nanossegundos e menos de 10 watts de consumo de energia para os principais clientes nas áreas de semicondutores, Inteligência Artificial, computação de alto desempenho (HPC) e aeroespacial. Sistemas ópticos de E/S como esse são fundamentais para data centers, entre outros casos de uso.
Interconectividade óptica para data centers pode se tornar cada vez mais vital em meio ao cenário de explosão de dados como vivemos atualmente, sedento por conexões de altas velocidade e largura de banda. Cada vez mais usuários, mais dispositivos da Internet das Coisas (IoT) ou não, mais serviços e mais acessos não poderiam resultar em outra coisa que não fosse alta demanda por conectividade eficiente em termos de desempenho, eficiência energética e custo, características essas oferecidas por soluções ópticas de interconectividade.
Em paralelo, data centers também estão sendo compostos por mais e mais hardware heterogêneo e personalizado, capaz de atender às diferentes necessidades computacionais. Em função disso, estamos vendo um movimento de vários grandes data centers na direção de arquiteturas desagregadas nas quais diferentes recursos de hardware, como memória e armazenamento, são organizados independentemente e conectados a uma malha de redes, os chamados data centers desagregados.
A abordagem de desagregar componentes dos data centers pode ser um caminho para viabilizar mais poder de processamento de cargas de trabalho em massa, além de assegurar mais flexibilidade, capacidade de expansão e eficiência energética. Com a desagregação, é possível reorganizar a arquitetura dos data centers para melhor aproveitar os recursos computacionais, muitas vezes subutilizados, atribuindo, por exemplo, apenas poder de processamento, memória e sistema de armazenamento exigidos por um trabalho específico. Os demais recursos podem ser alocados para outras tarefas.
A desagregação de recursos se opõe ao método de utilização de recursos empregado na maioria dos data centers modernos, que conta com uma quantidade fixa de elementos conectados (por exemplo, CPUs e memória) em servidores blade.
Nos atuais data centers, milhares de servidores estão implantados em diferentes racks e conectados a switches por placas de rede. Cada servidor tem uma quantidade fixa de recursos, cuja configuração estática leva a quadros de subutilização de capacidade de processamento. Por exemplo, uma tarefa que faz uso intensivo de processamento de vídeo pode consumir muito recurso da CPU, enquanto grande parte da memória no mesmo servidor não pode ser atribuída a outras tarefas. Além disso, integrar recursos em um único chassi pode dificultar a alteração ou modernização da configuração dos servidores.
No cenário desagregado, o elemento crítico é a conectividade, que deve atender aos requisitos de largura de banda e latência da comunicação dos data centers. Avanços recentes em sistemas ópticos permitem interconexões reconfiguráveis de alta largura de banda e baixo consumo de energia por bit para data centers desagregados.
A desagregação de data centers já está em uso há alguns anos, mas CPU e recursos de memória ainda estão acoplados, geralmente. Mais recentemente, o conceito de arquitetura totalmente desagregada propôs migrar do uso de ‘caixas’ integrando diferentes tipos de recursos para o uso do mesmo tipo de recursos formando uma unidade (um blade, um rack ou um cluster de recursos). Tais unidades são interconectadas para permitir a comunicação entre os diferentes tipos de recursos.
Em particular, as interconexões entre CPU e memória em data centers desagregados exigem latência ultrabaixa e largura de banda de transmissão ultra-alta para evitar a degradação do desempenho durante o processamento das cargas de trabalho. Para se ter uma ideia, os requisitos de latência para diferentes tipos de recursos variam de milissegundos (por exemplo, entre CPU e sistemas de armazenamento) até nanossegundos (entre CPU e memória) Já para largura de banda, as exigências variam de apenas alguns Gb/s a várias centenas de Gb/s. Por isso, a comunicação por sistemas ópticos é uma técnica promissora para oferecer alta capacidade de transferência e baixa latência.
Os principais benefícios das interconexões ópticas para data centers desagregados são:
1. Alta largura de banda que permite transferência veloz de grandes volumes de dados entre diferentes componentes do data center.
2. Mais flexibilidade e escalabilidade.
3. Baixo consumo de energia, pois interconexões ópticas consomem menos energia do que as de cobre.
4. Melhor confiabilidade e redundância, já que os data centers desagregados podem usar diferentes tipos de interconexões para diferentes componentes.
5. Economia, pois interconexões ópticas são mais baratas do que as de cobre.
A receita gerada por sistemas ópticos de E/S para computação de alto desempenho (HPC) foi de cerca de US$ 5 milhões em 2022 e deve chegar a US$ 2,3 bilhões em 2033, com uma taxa composta de crescimento anual de 74% no período, segundo o Yole Group.
Março 21, 2023
Março 08, 2023
Fevereiro 28, 2023
Fevereiro 25, 2023
Fevereiro 17, 2023
Fevereiro 15, 2023
Janeiro 27, 2023
Metas do ESG devem ser incorporadas pelos operadores de data centers.
Janeiro 16, 2023
Previous
Ferramenta ajuda a calcular TCO de data centers
Next
Honda testa células de combustível em data center na Califórnia