{"id":16496,"date":"2024-06-14T12:36:29","date_gmt":"2024-06-14T12:36:29","guid":{"rendered":"https:\/\/network-king.net\/nace-un-estandar-de-comunicacion-para-sistemas-de-ia-en-centros-de-datos\/"},"modified":"2024-06-14T12:41:37","modified_gmt":"2024-06-14T12:41:37","slug":"nace-un-estandar-de-comunicacion-para-sistemas-de-ia-en-centros-de-datos","status":"publish","type":"articles","link":"https:\/\/network-king.net\/es\/nace-un-estandar-de-comunicacion-para-sistemas-de-ia-en-centros-de-datos\/","title":{"rendered":"Nace un est\u00e1ndar de comunicaci\u00f3n para sistemas de IA en centros de datos"},"content":{"rendered":"\n<p>En respuesta al dominio de NVidia, se ha formado un grupo de grandes empresas tecnol\u00f3gicas para desarrollar un nuevo est\u00e1ndar de comunicaci\u00f3n de alta velocidad y baja latencia para sistemas de Inteligencia Artificial (IA) enlazados en centros de datos. El consorcio crear\u00e1 el est\u00e1ndar Ultra Accelerator Link (UALink) e incluir\u00e1 a AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta y Microsoft.<\/p>\n\n\n\n<p>El objetivo del consorcio UALink es definir y establecer una norma abierta para que los aceleradores de IA se comuniquen con mayor eficacia. UALink permitir\u00e1 a los OEM, los profesionales inform\u00e1ticos y los integradores de sistemas disponer de un camino m\u00e1s f\u00e1cil hacia la integraci\u00f3n, m\u00e1s flexibilidad y escalabilidad en los centros de datos que operen con soluciones de IA.<\/p>\n\n\n\n<p>M\u00e1s concretamente, el grupo desarrollar\u00e1 una especificaci\u00f3n para definir interconexiones de alta velocidad y baja latencia para una comunicaci\u00f3n escalable entre aceleradores y conmutadores en clusters de computaci\u00f3n de IA.<\/p>\n\n\n\n<p>Seg\u00fan <a href=\"https:\/\/www.tomshardware.com\/tech-industry\/artificial-intelligence\/amd-broadcom-intel-google-microsoft-and-others-team-up-for-ultra-accelerator-link-an-open-standard-interconnect-for-ai-accelerators\" target=\"_blank\" rel=\"noreferrer noopener\">Tom&#8217;s Hardware<\/a>, el objetivo de UALink en su especificaci\u00f3n 1.0, que deber\u00eda estar disponible en el tercer trimestre de 2024, es interconectar hasta 1.024 aceleradores en un pod de computaci\u00f3n de IA. Tendr\u00e1 que competir con <a href=\"https:\/\/www.nvidia.com\/en-us\/design-visualization\/nvlink-bridges\/\" target=\"_blank\" rel=\"noreferrer noopener\">NVLink<\/a> de NVidia que, muy probablemente por este motivo, no forma parte de la nueva asociaci\u00f3n.<\/p>\n\n\n\n<p>La primera gran diferencia entre UALink y NVlink es el enfoque de norma abierta del primero, que contrasta con la naturaleza propietaria del segundo. El prop\u00f3sito de UALink, al ser abierto, es estimular la colaboraci\u00f3n y el desarrollo conjunto en la industria, acelerando los avances en el hardware de IA de m\u00faltiples proveedores.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-nvidia-frente-a-los-demas\">NVidia frente a los dem\u00e1s<\/h2>\n\n\n\n<p>La publicaci\u00f3n <a href=\"https:\/\/www.hpcwire.com\/2024\/05\/30\/everyone-except-nvidia-forms-ultra-accelerator-link-ualink-consortium\/\" target=\"_blank\" rel=\"noreferrer noopener\">HPCwire<\/a>, que cubre el sector de los ordenadores de alto rendimiento desde 1987, explica que existen tres formas de conectar las GPU:<\/p>\n\n\n\n<p>1. Por bus PCI, en servidores que suelen admitir de 4 a 8 GPU en el mismo bus. Este n\u00famero puede crecer hasta 32 utilizando tecnolog\u00edas como el tejido de memoria GigaIO FabreX.<\/p>\n\n\n\n<p>2. Mediante la interconexi\u00f3n de servidores con GPU, utilizando redes Ethernet o InfiniBand. Ethernet ha sido durante mucho tiempo el est\u00e1ndar elegido para las redes inform\u00e1ticas, pero recientemente ha recibido una mejora de rendimiento con la creaci\u00f3n del Consorcio Ultra Ethernet, del que NVidia es b\u00e1sicamente propietaria exclusiva del mercado InfiniBand. Seg\u00fan HPCwire, el Ultra Ethernet Consortium se cre\u00f3 para ser el \u00abInfiniBand\u00bb de todos los dem\u00e1s.<\/p>\n\n\n\n<p>3. Interconexi\u00f3n entre GPU: Reconociendo la necesidad de conexiones m\u00e1s r\u00e1pidas y escalables para las GPU, NVidia ha desarrollado NVLink, capaz de transferir datos a velocidades de 1,8 terabytes por segundo entre GPU. Los switches NVLink a nivel de rack pueden soportar hasta 576 GPU totalmente conectadas en un tejido de computaci\u00f3n. Las GPU conectadas a trav\u00e9s de NVLink se denominan pods. Aqu\u00ed es donde ahora funcionar\u00e1 el nuevo UALink.<\/p>\n\n\n\n<p>\u00abEn muy poco tiempo, la industria tecnol\u00f3gica ha asumido los retos que la IA y la HPC (computaci\u00f3n de alto rendimiento) han puesto de manifiesto. La interconexi\u00f3n de aceleradores como las GPU requiere una perspectiva hol\u00edstica para mejorar la eficiencia y el rendimiento. En el Consorcio Ultra Ethernet, creemos que el enfoque de UALink para resolver los problemas de los cl\u00fasteres de vainas complementa nuestro propio protocolo de expansi\u00f3n, y estamos deseando colaborar en la creaci\u00f3n de una soluci\u00f3n abierta, respetuosa con el ecosistema y aplicable a todo el sector que aborde ambos tipos de necesidades en el futuro\u00bb, afirma J. Metz, presidente del Consorcio Ultra Ethernet.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-rendimiento-de-nvlink\">Rendimiento de NVLink<\/h2>\n\n\n\n<p>Podr\u00eda decirse que, en t\u00e9rminos de escalabilidad y rendimiento, UALink y NVLink est\u00e1n a la par. UALink se est\u00e1 desarrollando para conectar hasta 1.024 aceleradores dentro de un pod de computaci\u00f3n de IA.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"584\" src=\"https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-1024x584.jpg\" alt=\"\" class=\"wp-image-16485\" srcset=\"https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-1024x584.jpg 1024w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-300x171.jpg 300w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-768x438.jpg 768w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-1536x876.jpg 1536w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra.jpg 1630w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Fuente: Grupo promotor de UALink<\/figcaption><\/figure>\n\n\n\n<p>Seg\u00fan NVidia, la quinta generaci\u00f3n de NVLink mejora significativamente la escalabilidad de los sistemas multi-GPU de mayor tama\u00f1o. Una sola GPU Blackwell Tensor Core puede trabajar con hasta 18 conexiones NVLink a 100 gigabytes por segundo (GB\/s) para un ancho de banda total de 1,8 terabytes por segundo (TB\/s), el doble que la generaci\u00f3n anterior y m\u00e1s de 14 veces el ancho de banda de PCIe Gen5.<\/p>\n\n\n\n<p>Dado que NVLink de NVidia est\u00e1 actualmente bien establecido en el segmento de la interconexi\u00f3n de sistemas de IA y que se espera que los primeros productos UALink no lleguen al mercado hasta principios de 2025, la expectativa es que UALink no tenga un volumen relevante de implementaciones hasta 2026, especula el sitio web <a href=\"https:\/\/www.servethehome.com\/ualink-will-be-the-nvlink-standard-backed-by-amd-intel-broadcom-cisco-and-more\" target=\"_blank\" rel=\"noreferrer noopener\">STH<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>En respuesta al dominio de NVidia, se ha formado un grupo de grandes empresas tecnol\u00f3gicas para desarrollar un nuevo est\u00e1ndar de comunicaci\u00f3n de alta velocidad y baja latencia para sistemas de Inteligencia Artificial (IA) enlazados en centros de datos. El consorcio crear\u00e1 el est\u00e1ndar Ultra Accelerator Link (UALink) e incluir\u00e1 a AMD, Broadcom, Cisco, Google,&#8230;<\/p>\n","protected":false},"featured_media":16492,"comment_status":"closed","ping_status":"closed","template":"","format":[],"category":[251,251],"tags":[],"company":[],"topic":[],"class_list":["post-16496","articles","type-articles","status-publish","has-post-thumbnail","hentry","category-centro-de-datos"],"acf":[],"_links":{"self":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/articles\/16496","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/articles"}],"about":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/types\/articles"}],"replies":[{"embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/comments?post=16496"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/media\/16492"}],"wp:attachment":[{"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/media?parent=16496"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/category?post=16496"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/tags?post=16496"},{"taxonomy":"format","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/format?post=16496"},{"taxonomy":"company","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/company?post=16496"},{"taxonomy":"topic","embeddable":true,"href":"https:\/\/network-king.net\/es\/wp-json\/wp\/v2\/topic?post=16496"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}