Subscribe to our Newsletter!
By subscribing to our newsletter, you agree with our privacy terms
Home > IT Monitoring > Data Center > Generative KI: Müssen Rechenzentren umgestaltet werden?
Juni 05, 2023
Die Veröffentlichung des jüngsten Finanzberichts von Nvidia versetzte die Welt der Rechenzentren in Alarmbereitschaft. So erklärte dort Jensen Huang, Gründer und CEO des Unternehmens: „Die Computerindustrie durchläuft zwei parallele Umstellungen – beschleunigtes Computing und generative KI.“ Er fuhr fort, dass „eine Billion US-Dollar der weltweit installierten Rechenzentrumsinfrastruktur vom Allzweckmodell zum beschleunigten Rechnen übergehen werden. Währenddessen führen Unternehmen den Wettlauf, schnellstmöglich generative KI auf ihre Produkte, Dienstleistungen und Geschäftsprozesse anzuwenden.“
Ist eine komplette Überholung der Rechenzentren aufgrund der weit verbreiteten Nutzung generativer Modelle der Künstlichen Intelligenz (KI) wirklich notwendig? Sicher ist: Je mehr Unternehmen KI-Tools in ihren Geschäftsalltag integrieren, desto größer wird die Nachfrage nach Rechenzentrumsressourcen sein. Wie wirkt sich das auf die bestehenden Infrastrukturen aus? Werden sie mithalten können? Und zu welchen Kosten?
Tirias Research stellte eine Prognose auf: Die Kosten für die Serverinfrastruktur von Rechenzentren für generative KI soll bis 2028 mehr als 76 Milliarden US-Dollar betragen – zusätzlich zu den Betriebskosten. Dieser Anstieg könnte den Plan von Unternehmen durchkreuzen, die beispielsweise versuchen, ihren Geschäftsbetrieb durch die Integration dieser Art von KI-Tool zu automatisieren. Laut dieser Tirias-Perspektive würde die Einbindung einer neuen Rechenzentrumsinfrastruktur eine vierfache Steigerung der Rechenleistung bieten. Dieser Gewinn würde aber durch eine 50-fache Steigerung der KI-Arbeitslasten aufgewogen, selbst mit innovativen und effizienteren Inferenzalgorithmen.
Weitere Informationen lieferte Chris Street, Direktor für Rechenzentren bei der Immobilien-Investmentberatung JLL, in einem Interview mit Tech Wire Asia: Dort erklärte er, dass die Branche einen Anstieg der Leistungsdichte erlebe, der auf die Unterstützung von KI-Anwendungen abzielt. Dies bringe neue Herausforderungen mit sich, insbesondere bei älteren Anlagen, die nicht für eine solche Nutzung ausgelegt sind. „Diese Situation macht den Wechsel zu Cloud-Diensten für viele Unternehmen unumgänglich“, so der Analyst. Für Street ließen sich einige Einrichtungen wiederverwenden, während möglicherweise bei anderen eine Aufrüstung nur mit erheblichem Aufwand vonstatten ginge – und sich deshalb nicht lohnen würde.
Bradley Shimmin, Analyst für den Daten- und KI-Sektor bei der Beratungsgruppe Omdia, räumt ein, dass neue Ansätze für die Hardwarebeschleunigung erforderlich sein könnten. Die Ansicht von Huang, dass Rechenzentren ihre gesamte Ausrüstung ersetzen müssen, teilt er jedoch nicht.
Auf der Website Data Center Knowledge führt Shimmin aus, dass Unternehmen für viele Anwendungsfälle, insbesondere für solche mit rechenintensiven Trainingsmodellen, in die besten Arten der Hardwarebeschleunigung für KI investieren müssen. „Es gibt jedoch auch einen gegenläufigen Trend, bei dem Forscher lernen, mit weniger Modellen und weniger Parametern mehr zu erreichen. Ein Beispiel dafür wären hochselektierte Datensätze und intelligenteres Training“, so Shimmin weiter.
Der Omina-Manager betont: Eine weitere Ökosystem-Initiative, die Rechenzentren bei der Unterstützung generativer KI-Anwendungsfälle helfen kann, kommt von den Prozessorherstellern. Samsung strebt beispielsweise an, KI-Modelle auf der Chip- und Edge-Geräte-Ebene auszuführen und so die Rechenzentren zu entlasten.
Es gibt jedoch auch Stimmen, die der Meinung des Nvidia-Managers zustimmen. Karl Freund, Gründer und Hauptanalyst von Cambrian-AI Research, äußerste sich gegenüber Data Center Knowledge: „Huang ist ein Visionär und hat schon lange gesagt, dass Rechenzentren zu beschleunigen sind.“ Zumindest für Nvidia wird dieses Szenario wahr – eine Realität, die eine Menge spezialisierter KI-Hardware für Rechenzentren erfordert: In seinem jüngsten Finanzbericht meldete das Unternehmen einen Rekordumsatz von 4,28 Milliarden US-Dollar aus seiner Rechenzentrumssparte. Das bedeutet ein Plus von 14 % im Verhältnis zum Vorjahr und 18 % im Vergleich zum Vorquartal.
Die Hardware-Beschleunigungslösungen von Nvidia nutzen den aktuellen Fokus auf KI so gut aus, dass das Unternehmen heute einen Marktwert von 1 Billion US-Dollar erreicht hat – und damit in den sogenannten „12-Zero Club“ aufgestiegen ist.
Ein Blick zurück: Nvidia wurde 1993 von einem taiwanesisch-amerikanischen Elektroingenieur namens Jensen Huang gegründet. Der Schwerpunkt: hochauflösende Grafikverarbeitung. Aber wie wurde dieses Unternehmen Teil der Welt künstlicher Intelligenz und der Rechenzentren?
Der Weg verlief so: Grafikprozessoren (GPUs) wurden entwickelt, um endlose mathematische Berechnungen unter Verwendung großer Datenmengen (Pixel in Bildern) als Input durchzuführen. Damit ist die Darstellung dreidimensionaler Räume in einer optimierten und beschleunigten Weise möglich – im Gegensatz zu CPUs, die für den allgemeinen Gebrauch gedacht sind. Im Laufe der Zeit entwickelten sich die GPUs, die bis heute zum Kerngeschäft von Nvidia gehören, weiter: Sie hatten nun mehrere Prozessoren, die kleinere Berechnungen parallel ausführen, welche von einem größeren und komplizierteren Problem abgeleitet sind. Beispiele hierfür sind Bilder mit großer Detailgenauigkeit in beschleunigter Bewegung unter Spielerinteraktion.
Inzwischen ist die Lage eine andere. Gegenüber NetworkWorld sagte Manuvir Das, Nvidias Vice President of Corporate Computing, dass sich das Unternehmen „definitiv auf die korrespondierende Welt konzentriert“ – auch wenn sich Nvidias Kern als Spieleunternehmen nicht ändern wird.
Um auf die aktuelle KI-Landschaft zurückzukommen: Maschinelles Lernen und seine Trainingsalgorithmen, die in LLM-Modellen enthalten sind, erfordern viele gleichzeitige Berechnungen mit großen Datenmengen. Die Schlussfolgerung ist naheliegend, dass Nvidias GPUS gut für den Einsatz in der KI geeignet wäre. „Es war klug, sich das zunutze zu machen“, sagt Willy Shih, Professor an der Harvard Business School.
Laut Das bieten die GPUs von Nvidia je nach Zielmarkt unterschiedliche Funktionalitäten. Die Unternehmens-GPUs verfügen beispielsweise über eine Engine für die Verarbeitung natürlicher Sprache und andere Funktionen, die bei Gaming-GPUs nicht zu finden sind.
Aktuell hat Nvidia in diesem Rennen die Nase vorn. Aber auch Intel, AMD sowie Amazon und Google investieren in das Segment der GPUs für KI.
September 28, 2023
September 21, 2023
September 15, 2023
September 10, 2023
September 01, 2023
August 28, 2023
August 22, 2023
August 07, 2023
Previous
Nicht verpassen: Rechenzentrumsanbieter zum richtigen Zeitpunkt wechseln
Next
Wie Nachhaltigkeit Rechenzentren vor abrupten Veränderungen schützt