Cisco und NVidia wollen KI-Infrastruktur für Rechenzentren anbieten

Infraestrutura de IA para data centers
Sheila Zabeu -

März 19, 2024

Einfach zu implementieren und zu verwalten: Cisco und NVidia arbeiten gemeinsam an Infrastrukturlösungen mit künstlicher Intelligenz (KI) für Rechenzentren, die diesen Anforderungen entsprechen. Diese Partnerschaft vereint zwei unterschiedliche Unternehmen: Während Cisco eine lange Erfolgsgeschichte in der Welt der Netzwerke mit einem weitläufigen Ökosystem von Partnern vorweisen kann, beherrscht NVidia das Gebiet der Grafikprozessoren und hat den KI-Boom maßgeblich vorangetrieben. Die Zusammenarbeit im Bereich der Rechenzentren soll nun vertieft werden – im Fokus stehen: skalierbare und automatisierte KI-Cluster-Managementlösungen, automatische Fehlerbehebungssysteme und andere Funktionen.

„Künstliche Intelligenz verändert die Art und Weise, wie wir arbeiten und leben, grundlegend – und die Geschichte zeigt, dass Veränderungen dieses Ausmaßes ein Umdenken und eine neue Architektur der Infrastrukturen erfordern. Der Ausbau unserer starken Partnerschaft mit NVidia versetzt uns in die Lage, Unternehmen mit den nötigen Technologien und der Expertise auszustatten. So können wir KI-Lösungen in großem Umfang entwickeln, einsetzen, verwalten und sichern“, so Chuck Robbins, Präsident und CEO von Cisco.

„Unternehmen auf der ganzen Welt drängen darauf, ihr Geschäft mit Hilfe von generativer KI zu transformieren. Durch die enge Zusammenarbeit mit Cisco erleichtern wir ihnen die Bereitstellung der benötigten Infrastruktur, um von KI als der stärksten technologischen Kraft unserer Zeit zu profitieren“, kommentierte Jensen Huang, Gründer und CEO von NVidia, die Partnerschaft.

Folgende integrierte Lösungen für Rechenzentren sind ab sofort verfügbar:

  • NVidia Tensor Core GPUs für die M7-Generation von Cisco UCS Blade- und Rack-Servern, einschließlich Cisco UCS X-Series und UCS X-Series Direct, mit optimaler Leistung für eine breite Palette von KI- und datenintensiven Workloads in Rechenzentren und am Rand von Netzwerken;
  • NVidia AI Enterprise mit sicherer und stabiler Software, vortrainierten Modellen und Entwicklungstools für KI-Lösungen;
  • Cisco Validated Designs (CVDs) Referenzarchitekturen, die die Bereitstellung und Verwaltung von KI-Clustern in beliebigem Umfang in zahlreichen Anwendungsfällen für virtualisierte und containerisierte Umgebungen vereinfachen. CVDs für FlexPod und FlashStack für Generative AI Inference mit NVidia AI Enterprise werden in Kürze verfügbar sein;
  • Vereinfachte KI-Infrastrukturen: Cisco Nexus Dashboard und Cisco Intersight zur Verwaltung und Betrieb von On-Premises- und Cloud-Management;
  • ThousandEyes: Mit KI-Workloads und Daten in der öffentlichen Cloud, vor Ort und in mehreren Rechenzentren bietet die Lösung eine Überwachung der digitalen Erfahrung mit KI-gesteuerten Erkenntnissen und automatisierter Lösung von Problemen, die in der Cloud und in lokalen Netzwerken auftreten;
  • Cisco Observability Platform: nutzt KI-Funktionen, um Echtzeit-Telemetriedaten domänenübergreifend zu kontextualisieren und zu korrelieren. Dadurch erhalten Unternehmen eine bessere Sichtbarkeit, Einblicke und Handlungsvorschläge zur Verbesserung der digitalen Erfahrungen;
  • Ciscos globales Ökosystem von Partnern zur Empfehlung, Unterstützung und Anleitung von Unternehmen.

„Unternehmen wollen ihr Geschäft durch die Nutzung von KI transformieren, aber sie müssen die einzigartigen Anforderungen verstehen, die KI-Workloads an Infrastrukturen von Rechenzentren stellen. Die Partnerschaft zwischen Cisco und NVidia bringt zwei vertrauenswürdige Marken mit komplementären Technologien zusammen, die den Kunden die Möglichkeit geben, das volle Potenzial von KI mit einer breiten Palette an leistungsoptimierten Ethernet-Infrastrukturen zu nutzen“, sagt Vijay Bhagavath, Vice President für Cloud und Datacenter Networking bei IDC Research.

KI-Vernetzung in Rechenzentren: Die Chancen

In einem Artikel für die DCD-Website gibt Nate Hefner, leitender Angestellter von Corning Optical Communications, eine Erklärung zum Thema: Ein KI-Netzwerk in einem Rechenzentrum sei im Wesentlichen ein Netzwerk innerhalb eines Netzwerks – und innerhalb des KI-Netzwerks funktionierten GPUs und CPUs wie die beiden Hälften des menschlichen Gehirns. Große „Serverfarmen“ mit dieser Konfiguration könnten wie ein Supercomputer wirken und die Trainingszeit von KI-Modellen beschleunigen.

Wenn jemand einem digitalen Assistenten eine Frage stellt, analysieren die vernetzten KI-Funktionen unüberschaubare Datenmengen und mögliche Antworten in Echtzeit, erklärt Hefner. Und je schneller, präziser und „menschlicher“ diese Antworten werden, desto nützlicher werden diese digitalen Assistenten – und desto mehr werden sie in das tägliche Leben integriert.

Mit der Suche nach dieser natürlicheren KI, die stärker in das tägliche Leben von Menschen und Unternehmen integriert werden kann, ist eine höhere Nachfrage abzusehen: Erwartungen zufolge soll KI in Netzwerken bis 2027 „Bandbreitenmöglichkeiten“ in Rechenzentren im Wert von bis zu 6,2 Milliarden Dollar Umsatz schaffen, so die Finanzanalysten bei Raymond James.

Ein aktueller Bericht der 650 Group zeigt, dass der Netzwerkmarkt für KI-Rechenzentren bis 2024 voraussichtlich mehr als 15 Milliarden US-Dollar erreichen wird – angeführt von Ethernet-Transceivern, InfiniBand und optischen 400/800G-Modellen. Die Studie weist außerdem Arista und NVidia als die zwei Hauptanbieter in diesem Segment aus.

Speziell in Bezug auf künstliche Intelligenz erwarten Experten, dass bis 2028 jeder fünfte an Rechenzentren verkaufte Ethernet-Switch-Port mit KI, maschinellem Lernen (ML) und beschleunigtem Rechnen in Verbindung stehen wird. Insbesondere KI/ML wird dabei in den ersten 18 Monaten nach der Einführung zu einer Rekordzahl von optischen 800-Gbit/s-Ports führen. Darüber hinaus betont die 650 Group, Kunden würden weiterhin verschiedene Netzwerktopologien evaluieren, um die Anforderungen von KI/ML-Netzwerken zu erfüllen.

„Das Jahr 2023 sah ein signifikantes Wachstum der Umsätze bei Anbietern im Zusammenhang mit Netzwerken für KI/ML. 2024 dürfte das Wachstum noch größer werden, da viele Kunden ihre Proofs of Concept in reale Produktionsnetzwerke überführen“, vermutet Alan Weckel, Technologieanalyst der 650 Group. „Mit dem Wachstum der Bandbreite für KI wird der mit KI/ML und Accelerated Computing verbundene Teil des Ethernet-Switchings nicht mehr nur eine Nische sein: Er wird bis 2028 einen bedeutenden Teil des Marktes ausmachen. Wir stehen kurz davor, Rekordverkäufe von 800-Gbit/s-Switches und optischen Modellen zu sehen – sobald die Produkte den Produktionsmaßstab erreichen, um das KI/ML-Segment ausreichend zu bedienen.“