Subscribe to our Newsletter!
By subscribing to our newsletter, you agree with our privacy terms
Home > IT Monitoring > Data Center > Cisco und NVidia wollen KI-Infrastruktur für Rechenzentren anbieten
März 19, 2024
Einfach zu implementieren und zu verwalten: Cisco und NVidia arbeiten gemeinsam an Infrastrukturlösungen mit künstlicher Intelligenz (KI) für Rechenzentren, die diesen Anforderungen entsprechen. Diese Partnerschaft vereint zwei unterschiedliche Unternehmen: Während Cisco eine lange Erfolgsgeschichte in der Welt der Netzwerke mit einem weitläufigen Ökosystem von Partnern vorweisen kann, beherrscht NVidia das Gebiet der Grafikprozessoren und hat den KI-Boom maßgeblich vorangetrieben. Die Zusammenarbeit im Bereich der Rechenzentren soll nun vertieft werden – im Fokus stehen: skalierbare und automatisierte KI-Cluster-Managementlösungen, automatische Fehlerbehebungssysteme und andere Funktionen.
„Künstliche Intelligenz verändert die Art und Weise, wie wir arbeiten und leben, grundlegend – und die Geschichte zeigt, dass Veränderungen dieses Ausmaßes ein Umdenken und eine neue Architektur der Infrastrukturen erfordern. Der Ausbau unserer starken Partnerschaft mit NVidia versetzt uns in die Lage, Unternehmen mit den nötigen Technologien und der Expertise auszustatten. So können wir KI-Lösungen in großem Umfang entwickeln, einsetzen, verwalten und sichern“, so Chuck Robbins, Präsident und CEO von Cisco.
„Unternehmen auf der ganzen Welt drängen darauf, ihr Geschäft mit Hilfe von generativer KI zu transformieren. Durch die enge Zusammenarbeit mit Cisco erleichtern wir ihnen die Bereitstellung der benötigten Infrastruktur, um von KI als der stärksten technologischen Kraft unserer Zeit zu profitieren“, kommentierte Jensen Huang, Gründer und CEO von NVidia, die Partnerschaft.
Folgende integrierte Lösungen für Rechenzentren sind ab sofort verfügbar:
„Unternehmen wollen ihr Geschäft durch die Nutzung von KI transformieren, aber sie müssen die einzigartigen Anforderungen verstehen, die KI-Workloads an Infrastrukturen von Rechenzentren stellen. Die Partnerschaft zwischen Cisco und NVidia bringt zwei vertrauenswürdige Marken mit komplementären Technologien zusammen, die den Kunden die Möglichkeit geben, das volle Potenzial von KI mit einer breiten Palette an leistungsoptimierten Ethernet-Infrastrukturen zu nutzen“, sagt Vijay Bhagavath, Vice President für Cloud und Datacenter Networking bei IDC Research.
In einem Artikel für die DCD-Website gibt Nate Hefner, leitender Angestellter von Corning Optical Communications, eine Erklärung zum Thema: Ein KI-Netzwerk in einem Rechenzentrum sei im Wesentlichen ein Netzwerk innerhalb eines Netzwerks – und innerhalb des KI-Netzwerks funktionierten GPUs und CPUs wie die beiden Hälften des menschlichen Gehirns. Große „Serverfarmen“ mit dieser Konfiguration könnten wie ein Supercomputer wirken und die Trainingszeit von KI-Modellen beschleunigen.
Wenn jemand einem digitalen Assistenten eine Frage stellt, analysieren die vernetzten KI-Funktionen unüberschaubare Datenmengen und mögliche Antworten in Echtzeit, erklärt Hefner. Und je schneller, präziser und „menschlicher“ diese Antworten werden, desto nützlicher werden diese digitalen Assistenten – und desto mehr werden sie in das tägliche Leben integriert.
Mit der Suche nach dieser natürlicheren KI, die stärker in das tägliche Leben von Menschen und Unternehmen integriert werden kann, ist eine höhere Nachfrage abzusehen: Erwartungen zufolge soll KI in Netzwerken bis 2027 „Bandbreitenmöglichkeiten“ in Rechenzentren im Wert von bis zu 6,2 Milliarden Dollar Umsatz schaffen, so die Finanzanalysten bei Raymond James.
Ein aktueller Bericht der 650 Group zeigt, dass der Netzwerkmarkt für KI-Rechenzentren bis 2024 voraussichtlich mehr als 15 Milliarden US-Dollar erreichen wird – angeführt von Ethernet-Transceivern, InfiniBand und optischen 400/800G-Modellen. Die Studie weist außerdem Arista und NVidia als die zwei Hauptanbieter in diesem Segment aus.
Speziell in Bezug auf künstliche Intelligenz erwarten Experten, dass bis 2028 jeder fünfte an Rechenzentren verkaufte Ethernet-Switch-Port mit KI, maschinellem Lernen (ML) und beschleunigtem Rechnen in Verbindung stehen wird. Insbesondere KI/ML wird dabei in den ersten 18 Monaten nach der Einführung zu einer Rekordzahl von optischen 800-Gbit/s-Ports führen. Darüber hinaus betont die 650 Group, Kunden würden weiterhin verschiedene Netzwerktopologien evaluieren, um die Anforderungen von KI/ML-Netzwerken zu erfüllen.
„Das Jahr 2023 sah ein signifikantes Wachstum der Umsätze bei Anbietern im Zusammenhang mit Netzwerken für KI/ML. 2024 dürfte das Wachstum noch größer werden, da viele Kunden ihre Proofs of Concept in reale Produktionsnetzwerke überführen“, vermutet Alan Weckel, Technologieanalyst der 650 Group. „Mit dem Wachstum der Bandbreite für KI wird der mit KI/ML und Accelerated Computing verbundene Teil des Ethernet-Switchings nicht mehr nur eine Nische sein: Er wird bis 2028 einen bedeutenden Teil des Marktes ausmachen. Wir stehen kurz davor, Rekordverkäufe von 800-Gbit/s-Switches und optischen Modellen zu sehen – sobald die Produkte den Produktionsmaßstab erreichen, um das KI/ML-Segment ausreichend zu bedienen.“
August 24, 2024
August 19, 2024
August 15, 2024
August 10, 2024
August 02, 2024
Juli 29, 2024
Juli 23, 2024
Juli 15, 2024
Previous
Alphabet-Spin-off kreiert wegweisendes Rechenzentrum-Modell
Next
Microsoft erkundet neue Grenzen: Tests von Sub-THz-Links für Data-Center-Technologie