Los avances en interconexiones ópticas son vitales para los centros de datos desagregados

Imagem de um data center

marzo 27, 2023

A principios de marzo, Ayar Labs, proveedor de soluciones de conectividad óptica para aplicaciones de datos intensivos, hizo una demostración pública de lo que afirma es el primer chip compacto CMOS capaz de alcanzar un rendimiento de 4 terabits por segundo (Tbps). La empresa ofrece ahora soluciones integradas de E/S óptica con latencia inferior a 10 nanosegundos y menos de 10 vatios de consumo a clientes líderes en semiconductores, inteligencia artificial, computación de alto rendimiento (HPC) y aeroespacial. Los sistemas ópticos de E/S de este tipo son fundamentales para los centros de datos, entre otros casos de uso.

La interconectividad óptica para centros de datos puede resultar cada vez más vital en medio del panorama actual de explosión de datos, ávidos de conexiones de alta velocidad y gran ancho de banda. Cada vez más usuarios, más dispositivos de Internet de las Cosas (IoT) o no, más servicios y más accesos no podían dar lugar a otra cosa que a una gran demanda de rendimiento, eficiencia energética y conectividad rentable, características que ofrecen las soluciones de interconectividad óptica.

Paralelamente, los centros de datos también se componen de un hardware cada vez más heterogéneo y personalizado, capaz de satisfacer diferentes necesidades informáticas. En consecuencia, muchos grandes centros de datos están avanzando hacia arquitecturas desagregadas en las que los distintos recursos de hardware, como la memoria y el almacenamiento, se organizan de forma independiente y se conectan a una malla de redes, los llamados centros de datos desagregados.

El planteamiento de desagregar los componentes de los centros de datos puede ser una forma de habilitar más potencia de procesamiento para cargas de trabajo masivas, además de garantizar más flexibilidad, escalabilidad y eficiencia energética. Con la desagregación, la arquitectura del centro de datos puede reorganizarse para aprovechar mejor unos recursos informáticos a menudo infrautilizados, por ejemplo asignando sólo la potencia de procesamiento, la memoria y el sistema de almacenamiento necesarios para un trabajo específico. Los recursos restantes pueden asignarse a otras tareas.

La desagregación de recursos se opone al método de utilización de recursos empleado en la mayoría de los centros de datos modernos, que se basa en una cantidad fija de elementos conectados (por ejemplo, CPU y memoria) en servidores blade.

En los centros de datos actuales, miles de servidores se despliegan en distintos bastidores y se conectan a conmutadores mediante tarjetas de red. Cada servidor dispone de una cantidad fija de recursos, cuya configuración estática provoca cuadros de infrautilización de la capacidad de procesamiento. Por ejemplo, una tarea que haga un uso intensivo del procesamiento de vídeo puede consumir muchos recursos de la CPU, mientras que gran parte de la memoria del mismo servidor no puede asignarse a otras tareas. Además, la integración de recursos en un único chasis puede dificultar el cambio o la modernización de la configuración de los servidores.

En el escenario desagregado, el elemento crítico es la conectividad, que debe cumplir los requisitos de ancho de banda y latencia de la comunicación de los centros de datos. Los últimos avances en sistemas ópticos permiten interconexiones reconfigurables de gran ancho de banda y bajo consumo por bit para centros de datos desagregados.

La desagregación de los centros de datos se utiliza desde hace algunos años, pero los recursos de CPU y memoria siguen generalmente acoplados. Más recientemente, el concepto de arquitectura totalmente desagregada ha propuesto pasar de utilizar “cajas” que integran distintos tipos de recursos a utilizar el mismo tipo de recursos formando una unidad (un blade, un rack o un cluster de recursos). Estas unidades están interconectadas para permitir la comunicación entre los distintos tipos de recursos.

En particular, las interconexiones entre CPU y memoria en centros de datos desagregados requieren una latencia ultrabaja y un ancho de banda de rendimiento ultraalto para evitar la degradación del rendimiento al procesar las cargas de trabajo. Para hacernos una idea, los requisitos de latencia para los distintos tipos de recursos oscilan entre milisegundos (por ejemplo, entre la CPU y los sistemas de almacenamiento) y nanosegundos (entre la CPU y la memoria). Por eso, la comunicación a través de sistemas ópticos es una técnica prometedora para ofrecer un alto rendimiento y una baja latencia.

Las principales ventajas de las interconexiones ópticas para los centros de datos desagregados son:

1. Gran ancho de banda que permite la transferencia rápida de grandes volúmenes de datos entre los distintos componentes del centro de datos.

2. Más flexibilidad y escalabilidad.

3. Bajo consumo de energía, ya que las interconexiones ópticas consumen menos energía que las de cobre.

4. Mayor fiabilidad y redundancia, ya que los centros de datos desagregados pueden utilizar diferentes tipos de interconexiones para distintos componentes.

5. Economía, ya que las interconexiones ópticas son más baratas que las de cobre.

Los ingresos generados por los sistemas ópticos de E/S para computación de alto rendimiento (HPC) fueron de unos 5 millones de dólares en 2022 y se espera que alcancen los 2.300 millones de dólares en 2033, con una tasa de crecimiento anual compuesta del 74% durante el periodo, según Yole Group.