Subscribe to our Newsletter!
By subscribing to our newsletter, you agree with our privacy terms
Home > Monitoreo > Centro de datos > Google es el tercer mayor diseñador de procesadores para centros de datos
junio 06, 2024
¿Piensa en Google y qué le viene a la mente? Seguramente le vendrá a la mente la imagen del principal buscador de Internet de los últimos tiempos y, más recientemente, la computación en nube y la Inteligencia Artificial (IA). Le sorprendería saber que Google también lleva casi una década trabajando en el diseño de aceleradores de IA para centros de datos desde que lanzó en 2015 la Tensor Product Unit (TPU), un circuito integrado específico para aplicaciones (ASIC) diseñado específicamente para acelerar las cargas de trabajo de aprendizaje automático (ML)?
Según TechInsights, Google es actualmente el tercer diseñador de procesadores para centros de datos, con una cuota de mercado comparable a la de empresas más destacadas como Intel o AMD. Y se espera que siga creciendo a lo largo de 2024. El uso por parte de Google de chips personalizados en sus propios centros de datos alcanzó la marca de los 2 millones el año pasado, una cifra que le sitúa solo por detrás de NVidia e Intel en términos de cuota de mercado, según un análisis de TechInsights.
Según la evaluación de TechInsights, las generaciones de TPU de Google han contribuido al crecimiento de la empresa año tras año. Con la TPU v4 introducida en 2021 y la aparición de importantes modelos lingüísticos, el negocio de procesadores de Google ha crecido significativamente.
Para estimular aún más este movimiento, Google incluso contrató el pasado marzo a un veterano de Intel para dirigir una nueva división que desarrollará sistemas en chip (SoC) personalizados para los centros de datos de la empresa. También tiene previsto contratar a cientos de ingenieros para crear nuevos circuitos altamente integrados y sustituir las placas base de los servidores de Google a mediados de la década, según un artículo publicado en el sitio web Tom’s Hardware.
Los proveedores de servicios en la nube a hiperescala, los llamados hyperscalers, como Google, Meta, Microsoft y Amazon, están invirtiendo estratégicamente en el desarrollo de tecnologías de semiconductores propias en respuesta a la creciente demanda de GPU en el mercado de la IA Generativa (GenAI).
Además de Google, Microsoft y AWS también han hecho incursiones en el mundo de los chips propietarios. El pasado noviembre, durante la conferencia Ignite, Microsoft presentó la CPU Azure Cobalt 100 basada en tecnología Arm para cargas de trabajo genéricas y el acelerador de IA Azure Maia 100 para su uso en la nube Azure y optimizado para IA Generativa. Ese mismo mes, AWS presentó la cuarta generación de su procesador de fabricación propia, Graviton4, también basado en tecnología Arm. Según la compañía, desde su lanzamiento en 2018, se han desplegado más de dos millones de chips Graviton en más de 50.000 clientes y 150 tipos de instancias.
Según GlobalData, este giro hacia los chips personalizados pretende reducir la dependencia de NVidia y también promover la innovación y facilitar la expansión global. Además, busca reducir los costes financieros de adquirir procesadores más caros para satisfacer la creciente demanda de servicios de IA a la que se enfrentan las grandes empresas de computación en la nube.
“Existe un importante desequilibrio entre oferta y demanda en lo que respecta a las GPU, porque los modelos de IA generativa en general, y especialmente los sistemas multimodales que producen imágenes y vídeos, explotan en gran medida las capacidades de procesamiento paralelo de las GPU. Y estos chips son caros y escasos”, explica Beatriz Valle, analista senior de tecnología y servicios empresariales de GlobalData.
“Para hacer frente a esta tendencia, los hiperescaladores que ofrecen servicios de IA están adoptando tecnologías propias para ejecutar cargas de trabajo de IA. Google tiene sus TPU, Amazon sus arquitecturas Inferentia y Trainium. Meta anunció recientemente una nueva generación de chips personalizados para ayudar a impulsar las clasificaciones y los anuncios basados en IA en sus plataformas de redes sociales”, recuerda.
Durante la presentación de la nueva super GPU Blackwell en marzo, NVidia declaró que el nuevo procesador sería capaz de ejecutar modelos LLM con billones de parámetros y hasta 25 veces menos coste y consumo energético que su predecesor. En aquel momento, Jensen Huang, CEO de NVidia, mencionó que muchas organizaciones estaban esperando adoptar el nuevo Blackwell, entre ellas AWS, junto a Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI.
“Durante tres décadas hemos perseguido la computación acelerada con el objetivo de posibilitar avances transformadores como el aprendizaje profundo y la Inteligencia Artificial. La IA generativa es la tecnología que define nuestro tiempo, y Blackwell es el motor que impulsará esta nueva revolución industrial. En colaboración con las empresas más dinámicas del mundo, haremos realidad la promesa de la IA en todos los sectores”, afirma Huang. “La nueva GPU Blackwell funcionará muy bien en AWS. Y por eso NVidia eligió AWS para codesarrollar el Proyecto Ceiba, que combina los superchips Blackwell con la virtualización avanzada de AWS Nitro System y la red ultrarrápida de Elastic Fabric Adapter para la investigación y el desarrollo de IA propios de NVidia. Según afirma Andy Jassy, presidente y CEO de Amazon, «Gracias a este esfuerzo conjunto de los ingenieros de AWS y NVidia, seguiremos innovando juntos para hacer de AWS el mejor lugar para utilizar las GPU NVidia en la nube.
agosto 15, 2024
julio 28, 2024
junio 14, 2024
mayo 29, 2024
mayo 21, 2024
mayo 09, 2024
abril 01, 2024
Previous
Nace un estándar de comunicación para sistemas de IA en centros de datos
Next
NVidia propone nuevas métricas energéticas para los centros de datos