IA generativa: ¿hay que renovar los centros de datos?

Generative AI dat center
Sheila Zabeu -

mayo 30, 2023

Durante la presentación del último informe financiero de Nvidia, Jensen Huang, fundador y CEO de la compañía, hizo una declaración que ha dejado en alerta al mundo de los centros de datos. El ejecutivo afirmó que “la industria informática está atravesando dos transiciones simultáneas: la computación acelerada y la IA generativa”. Continuó diciendo que “un billón de dólares de la infraestructura de centros de datos instalada en el mundo pasará del modelo de propósito general a la computación acelerada a medida que las empresas se apresuran a aplicar la IA generativa en todos sus productos, servicios y procesos empresariales”.

¿Necesitarán realmente los centros de datos una revisión completa debido al uso generalizado de modelos generativos de Inteligencia Artificial (IA)? Es cierto que cuanto más integren las empresas las herramientas de IA en su rutina empresarial, mayor será la demanda de recursos de los centros de datos. ¿Y qué pasa con las infraestructuras existentes? ¿Podrán seguir el ritmo? ¿Y a qué coste?

Según una previsión de Tirias Research, los costes de la infraestructura de servidores de centros de datos para IA generativa sumados a los gastos operativos superarán los 76.000 millones de dólares en 2028. Este aumento de los costes podría acabar con el sueño de las empresas que, por ejemplo, buscan automatizar su negocio incorporando este tipo de herramientas de IA. Según esta perspectiva de Tirias, la incorporación de una nueva infraestructura de centro de datos ofrecería un aumento de cuatro veces en el rendimiento computacional, pero esta ganancia se vería superada por un aumento de 50 veces en las cargas de trabajo de IA, incluso con algoritmos de inferencia innovadores y más eficientes.

En una entrevista concedida a Tech Wire Asia, Chris Street, director de centros de datos de la consultora de inversión inmobiliaria JLL, comenta que el sector está experimentando un aumento de la densidad de potencia destinada a soportar aplicaciones de IA y esto conlleva retos, especialmente las instalaciones más antiguas no diseñadas para este uso. “Esta situación hace que el paso a los servicios en la nube sea imperativo para muchas organizaciones”, afirma el analista. Para Street, algunas instalaciones pueden reutilizarse, mientras que otras pueden requerir un esfuerzo considerable para actualizarlas y puede que no merezca la pena.

Bradley Shimmin, por su parte, analista del sector de datos e IA en el grupo de asesoramiento Omdia, reconoce que puede ser necesario adoptar nuevos enfoques para el hardware de aceleración, aunque no comparte plenamente la opinión de Huang, de Nvidia, de que los centros de datos tendrán que sustituir todos sus equipos.

En el sitio web Data Center Knowledge, Shimmin detalló que para muchos casos de uso, especialmente los que utilizan modelos de entrenamiento muy exigentes desde el punto de vista computacional, las empresas tendrán que invertir en los mejores tipos de aceleración de hardware para la IA. “Sin embargo, ahora mismo se está produciendo una tendencia opuesta, en la que los investigadores están aprendiendo a hacer más con menos modelos y con menos parámetros, conjuntos de datos muy seleccionados y un entrenamiento más inteligente, por ejemplo”, añadió Shimmin.

Otra iniciativa del ecosistema que puede ayudar a los centros de datos a soportar casos de uso de IA generativa procede de los fabricantes de procesadores, destaca el directivo de Omina. Por ejemplo, Samsung se está esforzando por ejecutar modelos de IA a nivel de chip y dispositivo de borde, aliviando así la carga de los centros de datos.

Sin embargo, hay quien está de acuerdo con el ejecutivo de Nvidia. Karl Freund, fundador y analista principal de Cambrian-AI Research, dijo a Data Center Knowledge que “Huang es un visionario y lleva mucho tiempo diciendo que hay que acelerar los centros de datos.” Al menos para Nvidia, ese escenario se está haciendo realidad, una hermosa realidad que está demandando mucho hardware especializado en IA para centros de datos: en su último informe financiero, la compañía registró unos ingresos récord de 4.280 millones de dólares procedentes de su división de centros de datos, un 14% más interanual y un 18% más intertrimestral.

¿Por qué Nvidia se sube a la ola de la IA?

Las soluciones de aceleración de hardware de Nvidia se están subiendo a la ola de la IA tan bien como para hacer que la empresa alcance hoy un valor de mercado de un billón de dólares, llegando a lo que ellos llaman el “club de los 12 ceros”.

Pero, ¿cómo ha llegado al mundo de la Inteligencia Artificial y los centros de datos una empresa fundada en 1993 por un ingeniero eléctrico taiwanés-estadounidense llamado Jensen Huang centrada en el procesamiento de gráficos de alta resolución?

Pues bien, las unidades de procesamiento gráfico (GPU) están diseñadas para realizar un sinfín de cálculos matemáticos utilizando como entrada grandes volúmenes de datos (píxeles en imágenes) para renderizar espacios tridimensionales de forma optimizada y acelerada, a diferencia de las CPU que están pensadas para un uso genérico. Con el tiempo, las GPU, que fueron y son hasta hoy el núcleo de la actividad de Nvidia, evolucionaron y empezaron a tener varios procesadores que ejecutaban en paralelo cálculos más pequeños, derivados de un problema más grande y complicado, como imágenes con gran detalle en movimiento acelerado bajo la interacción del jugador, por ejemplo.

Ahora podemos decir que el juego ha cambiado de alguna manera. En declaraciones al sitio web NetworkWorld, Manuvir Das, vicepresidente de informática corporativa de Nvidia, afirmó que la empresa “está definitivamente centrada en el mundo corparativo”, aunque la esencia de Nvidia como organización dedicada a los juegos no cambiará.

Volviendo al panorama actual de la IA, casualmente, el aprendizaje automático y sus algoritmos de entrenamiento, presentes en los modelos LLM, también requieren muchos cálculos simultáneos utilizando grandes volúmenes de datos. No es difícil deducir que la GPUS de Nvidia sería muy adecuada para su uso con IA. “Fueron inteligentes, sacaron partido de eso”, afirma Willy Shih, profesor de la Harvard Business School.

Según Das, el conjunto de GPU de Nvidia ofrece diferentes funcionalidades en función del mercado de destino. Por ejemplo, las GPU para empresas tienen un motor para el procesamiento del lenguaje natural y otras funciones que no se encuentran en las GPU para juegos.

Nvidia se ha adelantado en esta carrera, pero Intel, AMD, así como Amazon y Google, también están invirtiendo en el segmento de las GPU para IA.