{"id":16535,"date":"2024-06-18T12:02:17","date_gmt":"2024-06-18T12:02:17","guid":{"rendered":"https:\/\/network-king.net\/ki-systemsprung-neuer-kommunikationsstandard-fuer-rechenzentren\/"},"modified":"2024-06-18T12:05:33","modified_gmt":"2024-06-18T12:05:33","slug":"ki-systemsprung-neuer-kommunikationsstandard-fuer-rechenzentren","status":"publish","type":"articles","link":"https:\/\/network-king.net\/de\/ki-systemsprung-neuer-kommunikationsstandard-fuer-rechenzentren\/","title":{"rendered":"KI-Systemsprung: Neuer Kommunikationsstandard f\u00fcr Rechenzentren"},"content":{"rendered":"\n<p>Als Reaktion auf die Dominanz von NVidia formieren sich f\u00fchrende Tech-Unternehmen neu: Sie planen einen neuen Kommunikationsstandard f\u00fcr vernetzte Systeme der K\u00fcnstlichen Intelligenz (KI) in Rechenzentren zu entwickeln \u2013 mit h\u00f6chsten Geschwindigkeiten und niedriger Latenz. Das Konsortium plant, den Standard Ultra Accelerator Link (UALink) zu erstellen. Zu den Mitgliedern geh\u00f6ren neben AMD, Broadcom, Cisco und Google auch Hewlett Packard Enterprise (HPE), Intel, Meta sowie Microsoft.<\/p>\n\n\n\n<p>Das Ziel des UALink-Konsortiums ist es, einen offenen Standard f\u00fcr die Kommunikation von KI-Beschleunigern zu definieren und zu etablieren. UALink soll Herstellern, IT-Experten und Systemintegratoren eine einfachere Einbindung, mehr Flexibilit\u00e4t und eine bessere Skalierbarkeit in Rechenzentren mit KI-L\u00f6sungen erm\u00f6glichen. <\/p>\n\n\n\n<p>Konkret geht es dabei um die Entwicklung einer Spezifikation, die Hochgeschwindigkeits- und Niedriglatenz-Verbindungen f\u00fcr die skalierbare Kommunikation zwischen Beschleunigern und Switches in KI-Computing-Clustern definiert.<\/p>\n\n\n\n<p>Laut <a href=\"https:\/\/www.tomshardware.com\/tech-industry\/artificial-intelligence\/amd-broadcom-intel-google-microsoft-and-others-team-up-for-ultra-accelerator-link-an-open-standard-interconnect-for-ai-accelerators\" target=\"_blank\" rel=\"noopener\">Tom\u2019s Hardware<\/a> soll die 1.0-Spezifikation von UALink ab dem dritten Quartal 2024 verf\u00fcgbar sein. Sie kann bis zu 1.024 Beschleuniger in einem KI-Computing-Pod vernetzen. UALink ist dann direkter Konkurrent von NVidias <a href=\"https:\/\/www.nvidia.com\/en-us\/design-visualization\/nvlink-bridges\/\" target=\"_blank\" rel=\"noopener\">NVLink<\/a> \u2013 aus diesem Grund wird das Unternehmen h\u00f6chstwahrscheinlich kein Teil der neuen Vereinigung sein.<\/p>\n\n\n\n<p>Der erste wesentliche Unterschied zwischen UALink und NVLink: der offene Ansatz von UALink im Gegensatz zum propriet\u00e4ren System von NVLink. Das Ziel von UALink ist es, durch Offenheit die Zusammenarbeit und gemeinsame Entwicklung in der Branche zu f\u00f6rdern. Die Spezifikation soll die Fortschritte der KI-Hardware verschiedener Anbieter beschleunigen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-nvidia-im-vergleich\">NVidia im Vergleich<\/h2>\n\n\n\n<p>Das Portal <a href=\"https:\/\/www.hpcwire.com\/2024\/05\/30\/everyone-except-nvidia-forms-ultra-accelerator-link-ualink-consortium\/\" target=\"_blank\" rel=\"noopener\">HPCwire<\/a>, das seit 1987 \u00fcber den Sektor der Hochleistungsrechner berichtet, zeigt drei Wege auf, um Grafikprozessoren (GPUs) als Beschleuniger zu verbinden:<\/p>\n\n\n\n<p>1. \u00dcber den PCI-Bus: in Servern, die im Allgemeinen 4 bis 8 GPUs auf demselben Bus unterst\u00fctzen k\u00f6nnen. Technologien wie die GigaIO FabreX-Speicherstruktur lassen diese Zahl auf 32 ansteigen.<\/p>\n\n\n\n<p>2. Durch die Vernetzung von Servern mit GPUs: unter Verwendung von Ethernet- oder InfiniBand-Netzwerken. Ethernet war lange Zeit der Standard f\u00fcr Computernetzwerke und erhielt k\u00fcrzlich ein Leistungsupgrade durch die Gr\u00fcndung des Ultra Ethernet Consortiums. NVidia besitzt im Grunde den gesamten InfiniBand-Markt. Laut HPCwire formierte sich das Ultra Ethernet Consortium, um das \u201eInfiniBand\u201c aller anderen Anbieter zu sein.<\/p>\n\n\n\n<p>3. Interconnection zwischen GPUs: NVidia hat NVLink entwickelt, das Daten mit Geschwindigkeiten von 1,8 Terabyte pro Sekunde zwischen GPUs \u00fcbertragen kann. NVLink-Switches auf Rack-Ebene k\u00f6nnen bis zu 576 vollst\u00e4ndig verbundene GPUs in einem Computing-Fabric unterst\u00fctzen. GPUs, die \u00fcber NVLink verbunden sind, werden Pods genannt. Hier wird auch der neue UALink eingesetzt.<\/p>\n\n\n\n<p>\u201eIn k\u00fcrzester Zeit hat sich die Technologiebranche den Herausforderungen gestellt, die KI und HPC (High Performance Computing) mit sich bringen. Die Verbindung von Beschleunigern wie GPUs erfordert eine ganzheitliche Perspektive, um Effizienz und Leistung zu verbessern. Wir vom Ultra Ethernet Consortium sind der Meinung, dass der Ansatz von UALink zur L\u00f6sung von Pod-Cluster-Problemen unser eigenes Erweiterungsprotokoll erg\u00e4nzt. Wir freuen uns darauf, gemeinsam an einer offenen, umweltfreundlichen, branchenweiten L\u00f6sung zu arbeiten, die zuk\u00fcnftig beide Arten von Bed\u00fcrfnissen abdeckt\u201c, sagt J Metz, Vorsitzender des Ultra Ethernet Consortiums.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-leistung-von-nvlink\">Leistung von NVLink<\/h2>\n\n\n\n<p>In Bezug auf die Skalierbarkeit und Leistung sind UALink und NVLink gleichauf. UALinks Entwicklung zielt darauf ab, bis zu 1.024 Beschleuniger in einem KI-Computing-Pod zu verbinden.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"584\" src=\"https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-1024x584.jpg\" alt=\"Die Grafik visualisiert die Verbindung von Ultra-Beschleunigern zu einem KI-Computing-Pod.\" class=\"wp-image-16485\" srcset=\"https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-1024x584.jpg 1024w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-300x171.jpg 300w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-768x438.jpg 768w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra-1536x876.jpg 1536w, https:\/\/network-king.net\/wp-content\/uploads\/2024\/06\/ultra.jpg 1630w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Quelle: UALink Promoter Group<\/figcaption><\/figure>\n\n\n\n<p>Laut NVidia verbessert die f\u00fcnfte Generation von NVLink die Skalierbarkeit f\u00fcr gr\u00f6\u00dfere Multi-GPU-Systeme erheblich. Eine einzelne NVIDIA Blackwell Tensor Core GPU kann mit bis zu 18 NVLink-Verbindungen bei 100 Gigabyte pro Sekunde (GB\/s) arbeiten. Das entspricht einer Gesamtbandbreite von 1,8 Terabyte pro Sekunde (TB\/s) \u2013 doppelt so viel wie bei der vorherigen Generation und mehr als das 14-fache der Bandbreite von PCIe Gen5.<\/p>\n\n\n\n<p>NVidias NVLink ist derzeit im Segment der KI-Systemvernetzung gut etabliert und die ersten UALink-Produkte erscheinen nicht vor Anfang 2025 auf dem Markt. Daher spekuliert die Website <a href=\"https:\/\/www.servethehome.com\/ualink-will-be-the-nvlink-standard-backed-by-amd-intel-broadcom-cisco-and-more\" target=\"_blank\" rel=\"noopener\">STH<\/a>, dass UALink erst 2026 in relevanten Mengen implementiert wird.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Als Reaktion auf die Dominanz von NVidia formieren sich f\u00fchrende Tech-Unternehmen neu: Sie planen einen neuen Kommunikationsstandard f\u00fcr vernetzte Systeme der K\u00fcnstlichen Intelligenz (KI) in Rechenzentren zu entwickeln \u2013 mit h\u00f6chsten Geschwindigkeiten und niedriger Latenz. Das Konsortium plant, den Standard Ultra Accelerator Link (UALink) zu erstellen. Zu den Mitgliedern geh\u00f6ren neben AMD, Broadcom, Cisco und&#8230;<\/p>\n","protected":false},"featured_media":16491,"comment_status":"closed","ping_status":"closed","template":"","format":[],"category":[74],"tags":[],"company":[],"topic":[],"class_list":["post-16535","articles","type-articles","status-publish","has-post-thumbnail","hentry","category-datacenter"],"acf":[],"_links":{"self":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles\/16535","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles"}],"about":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/types\/articles"}],"replies":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/comments?post=16535"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media\/16491"}],"wp:attachment":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media?parent=16535"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/category?post=16535"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/tags?post=16535"},{"taxonomy":"format","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/format?post=16535"},{"taxonomy":"company","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/company?post=16535"},{"taxonomy":"topic","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/topic?post=16535"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}