{"id":16441,"date":"2024-06-06T00:00:21","date_gmt":"2024-06-06T00:00:21","guid":{"rendered":"https:\/\/network-king.net\/google-es-el-tercer-mayor-disenador-de-procesadores-para-centros-de-datos\/"},"modified":"2024-06-06T00:10:38","modified_gmt":"2024-06-06T00:10:38","slug":"google-es-el-tercer-mayor-disenador-de-procesadores-para-centros-de-datos","status":"publish","type":"articles","link":"https:\/\/network-king.net\/es\/google-es-el-tercer-mayor-disenador-de-procesadores-para-centros-de-datos\/","title":{"rendered":"Google es el tercer mayor dise\u00f1ador de procesadores para centros de datos"},"content":{"rendered":"\n<p>\u00bfPiensa en Google y qu\u00e9 le viene a la mente? Seguramente le vendr\u00e1 a la mente la imagen del principal buscador de Internet de los \u00faltimos tiempos y, m\u00e1s recientemente, la computaci\u00f3n en nube y la Inteligencia Artificial (IA). Le sorprender\u00eda saber que Google tambi\u00e9n lleva casi una d\u00e9cada trabajando en el dise\u00f1o de aceleradores de IA para centros de datos desde que lanz\u00f3 en 2015 la <a href=\"https:\/\/semiengineering.com\/knowledge_centers\/integrated-circuit\/ic-types\/processors\/tensor-processing-unit-tpu\/\" target=\"_blank\" rel=\"noreferrer noopener\">Tensor Product Unit (TPU),<\/a> un circuito integrado espec\u00edfico para aplicaciones (ASIC) dise\u00f1ado espec\u00edficamente para acelerar las cargas de trabajo de aprendizaje autom\u00e1tico (ML)?<\/p>\n\n<p>Seg\u00fan TechInsights, Google es actualmente el tercer dise\u00f1ador de procesadores para centros de datos, con una cuota de mercado comparable a la de empresas m\u00e1s destacadas como Intel o AMD. Y se espera que siga creciendo a lo largo de 2024. El uso por parte de Google de chips personalizados en sus propios centros de datos alcanz\u00f3 la marca de los 2 millones el a\u00f1o pasado, una cifra que <a href=\"https:\/\/www.theregister.com\/2024\/05\/21\/google_now_thirdlargest_in_datacenter\/\" target=\"_blank\" rel=\"noopener\">le sit\u00faa solo por detr\u00e1s de NVidia e Intel<\/a> en t\u00e9rminos de cuota de mercado, seg\u00fan un an\u00e1lisis de TechInsights.<\/p>\n\n<p>Seg\u00fan la evaluaci\u00f3n de TechInsights, las generaciones de TPU de Google han contribuido al crecimiento de la empresa a\u00f1o tras a\u00f1o. Con la TPU v4 introducida en 2021 y la aparici\u00f3n de importantes modelos ling\u00fc\u00edsticos, el negocio de procesadores de Google ha crecido significativamente.<\/p>\n\n<p>Para estimular a\u00fan m\u00e1s este movimiento, Google incluso <a href=\"https:\/\/www.tomshardware.com\/news\/google-cloud-socs-uri-frank\" target=\"_blank\" rel=\"noopener\">contrat\u00f3<\/a> el pasado marzo a un veterano de Intel para dirigir una nueva divisi\u00f3n que desarrollar\u00e1 sistemas en chip (SoC) personalizados para los centros de datos de la empresa. Tambi\u00e9n tiene previsto contratar a cientos de ingenieros para crear nuevos circuitos altamente integrados y sustituir las placas base de los servidores de Google a mediados de la d\u00e9cada, seg\u00fan un art\u00edculo publicado en el sitio web Tom&#8217;s Hardware.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-tendencia-de-mercado\">Tendencias del mercado<\/h2>\n\n<p>Los proveedores de servicios en la nube a hiperescala, los llamados hyperscalers, como Google, Meta, Microsoft y Amazon, est\u00e1n invirtiendo estrat\u00e9gicamente en el desarrollo de tecnolog\u00edas de semiconductores propias en respuesta a la creciente demanda de GPU en el mercado de la IA Generativa (GenAI).<\/p>\n\n<p>Adem\u00e1s de Google, Microsoft y AWS tambi\u00e9n han hecho incursiones en el mundo de los chips propietarios. El pasado noviembre, durante la conferencia Ignite, <a href=\"https:\/\/news.microsoft.com\/source\/features\/ai\/in-house-chips-silicon-to-service-to-meet-ai-demand\/\" target=\"_blank\" rel=\"noreferrer noopener\">Microsoft<\/a> present\u00f3 la CPU Azure Cobalt 100 basada en tecnolog\u00eda Arm para cargas de trabajo gen\u00e9ricas y el acelerador de IA Azure Maia 100 para su uso en la nube Azure y optimizado para IA Generativa. Ese mismo mes, AWS present\u00f3 la cuarta generaci\u00f3n de su procesador de fabricaci\u00f3n propia, <a href=\"https:\/\/www.theregister.com\/2023\/11\/28\/aws_graviton_trainium\/\" target=\"_blank\" rel=\"noreferrer noopener\">Graviton4<\/a>, tambi\u00e9n basado en tecnolog\u00eda Arm. Seg\u00fan la compa\u00f1\u00eda, desde su lanzamiento en 2018, se han desplegado m\u00e1s de dos millones de chips Graviton en m\u00e1s de 50.000 clientes y 150 tipos de instancias.<\/p>\n\n<p>Seg\u00fan GlobalData, este giro hacia los chips personalizados pretende reducir la dependencia de NVidia y tambi\u00e9n promover la innovaci\u00f3n y facilitar la expansi\u00f3n global. Adem\u00e1s, busca reducir los costes financieros de adquirir procesadores m\u00e1s caros para satisfacer la creciente demanda de servicios de IA a la que se enfrentan las grandes empresas de computaci\u00f3n en la nube.<\/p>\n\n<p>\u00abExiste un importante desequilibrio entre oferta y demanda en lo que respecta a las GPU, porque los modelos de IA generativa en general, y especialmente los sistemas multimodales que producen im\u00e1genes y v\u00eddeos, explotan en gran medida las capacidades de procesamiento paralelo de las GPU. Y estos chips son caros y escasos\u00bb, explica Beatriz Valle, analista senior de tecnolog\u00eda y servicios empresariales de GlobalData.<\/p>\n\n<p>\u00abPara hacer frente a esta tendencia, los hiperescaladores que ofrecen servicios de IA est\u00e1n adoptando tecnolog\u00edas propias para ejecutar cargas de trabajo de IA. Google tiene sus TPU, Amazon sus arquitecturas Inferentia y Trainium. Meta anunci\u00f3 recientemente una nueva generaci\u00f3n de chips personalizados para ayudar a impulsar las clasificaciones y los anuncios basados en IA en sus plataformas de redes sociales\u00bb, recuerda.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-parceria-entre-aws-e-nvidia\">Asociaci\u00f3n entre AWS y NVidia<\/h2>\n\n<p>Durante la presentaci\u00f3n de <a href=\"https:\/\/www.nvidia.com\/en-us\/data-center\/technologies\/blackwell-architecture\/\" target=\"_blank\" rel=\"noopener\">la nueva super GPU Blackwell<\/a> en marzo, NVidia declar\u00f3 que el nuevo procesador ser\u00eda capaz de ejecutar modelos LLM con billones de par\u00e1metros y hasta 25 veces menos coste y consumo energ\u00e9tico que su predecesor. En aquel momento, Jensen Huang, CEO de NVidia, mencion\u00f3 que muchas organizaciones estaban esperando adoptar el nuevo Blackwell, entre ellas AWS, junto a Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI.<\/p>\n\n<p>\u00abDurante tres d\u00e9cadas hemos perseguido la computaci\u00f3n acelerada con el objetivo de posibilitar avances transformadores como el aprendizaje profundo y la Inteligencia Artificial. La IA generativa es la tecnolog\u00eda que define nuestro tiempo, y Blackwell es el motor que impulsar\u00e1 esta nueva revoluci\u00f3n industrial. En colaboraci\u00f3n con las empresas m\u00e1s din\u00e1micas del mundo, haremos realidad la promesa de la IA en todos los sectores\u00bb, afirma Huang. \u00abLa nueva GPU Blackwell funcionar\u00e1 muy bien en AWS. Y por eso NVidia eligi\u00f3 AWS para codesarrollar el Proyecto Ceiba, que combina los superchips Blackwell con la virtualizaci\u00f3n avanzada de AWS Nitro System y la red ultrarr\u00e1pida de Elastic Fabric Adapter para la investigaci\u00f3n y el desarrollo de IA propios de NVidia. Seg\u00fan afirma Andy Jassy, presidente y CEO de Amazon, \u00abGracias a este esfuerzo conjunto de los ingenieros de AWS y NVidia, seguiremos innovando juntos para hacer de AWS el mejor lugar para utilizar las GPU NVidia en la nube.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfPiensa en Google y qu\u00e9 le viene a la mente? Seguramente le vendr\u00e1 a la mente la imagen del principal buscador de Internet de los \u00faltimos tiempos y, m\u00e1s recientemente, la computaci\u00f3n en nube y la Inteligencia Artificial (IA). Le sorprender\u00eda saber que Google tambi\u00e9n lleva casi una d\u00e9cada trabajando en el dise\u00f1o de aceleradores&#8230;<\/p>\n","protected":false},"featured_media":16428,"comment_status":"closed","ping_status":"closed","template":"","format":[],"category":[251],"tags":[],"company":[],"topic":[],"class_list":["post-16441","articles","type-articles","status-publish","has-post-thumbnail","hentry","category-centro-de-datos"],"acf":[],"_links":{"self":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/articles\/16441","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/articles"}],"about":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/types\/articles"}],"replies":[{"embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/comments?post=16441"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/media\/16428"}],"wp:attachment":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/media?parent=16441"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/category?post=16441"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/tags?post=16441"},{"taxonomy":"format","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/format?post=16441"},{"taxonomy":"company","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/company?post=16441"},{"taxonomy":"topic","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/topic?post=16441"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}