Neue Prozessoren für Rechenzentren: Google wird drittgrößter Entwickler

Google TPU
Sheila Zabeu -

Juni 04, 2024

Google ist vielen als führende Suchmaschine bekannt. In den letzten Jahren hat sich das Unternehmen jedoch zu einer bedeutenden Instanz in den Bereichen Cloud-Computing und künstliche Intelligenz (KI) entwickelt. Was viele nicht wissen: Google arbeitet bereits seit fast einem Jahrzehnt an der Entwicklung von KI-Beschleunigern für Rechenzentren. Im Jahr 2015 brachte das Unternehmen die Tensor Processing Unit (TPU) auf den Markt, einen anwendungsspezifischen integrierten Schaltkreis (ASIC), der speziell für die Beschleunigung von maschinellen Lernprozessen (ML) entwickelt wurde.

Laut TechInsights ist Google derzeit der drittgrößte Entwickler von Prozessoren für Rechenzentren – mit einem Marktanteil, der mit dem von Intel oder AMD vergleichbar ist. Es ist davon auszugehen, dass dieses Wachstum auch in 2024 anhält. Bereits im letzten Jahr nutzte Google maßgeschneiderte Chips in seinen Rechenzentren und erreichte dabei die Zwei-Millionen-Marke. Diese Zahl stellt Google laut der Analyse von TechInsights direkt hinter die Marktführer NVidia und Intel.

Nach den Angaben von TechInsights haben die TPU-Generationen zum kontinuierlichen Wachstum von Google beigetragen. Mit der Einführung von TPU v4 im Jahr 2021 und dem Aufkommen großer Sprachmodelle ist Googles Prozessor-Geschäft dementsprechend stark gewachsen.

Um diesen Bereich weiter voranzutreiben, holte Google im März einen früheren Intel-Mitarbeiter an Bord. Er soll die Leitung einer neuen Abteilung übernehmen, die sich der Entwicklung maßgeschneiderter System-on-Chips (SoCs) für die Rechenzentren des Unternehmens widmet. Um die Entwicklung eigener KI-Chips voranzutreiben, plant Google die Einstellung von Hunderten Ingenieuren. Diese sollen bis Mitte des Jahrzehnts neue hochintegrierte Schaltkreise entwickeln und die Server-Motherboards des Unternehmens ersetzen, so ein Artikel auf der Website von Tom’s Hardware.

Markttrends

Anbieter von Cloud-Diensten, sogenannte Hyperscaler wie Google, Meta, Microsoft und Amazon, investieren strategisch in die Entwicklung eigener Halbleitertechnologien. Dies geschieht als Reaktion auf die steigende Nachfrage nach GPUs im Markt für Generative AI (GenAI).

Neben Google haben auch Microsoft und AWS Fortschritte im Bereich der proprietären Chips verzeichnet. Im November letzten Jahres stellte Microsoft auf der Ignite-Konferenz die Azure Cobalt 100 CPU vor, die auf Arm-Technologie basiert und für generische Arbeitslasten ausgelegt ist. Außerdem präsentierte Microsoft den Azure Maia 100 KI-Beschleuniger, der für die Nutzung in der Azure-Cloud und für Generative AI optimiert ist. Im selben Monat brachte AWS die vierte Generation seines eigenen Prozessors Graviton4 auf den Markt, der ebenfalls auf Arm-Technologie basiert. Laut dem Unternehmen wurden seit der Einführung im Jahr 2018 mehr als zwei Millionen Graviton-Chips an über 50.000 Kunden und 150 Instanztypen ausgeliefert.

GlobalData zufolge zielt der Schritt zu maßgeschneiderten Chips darauf ab, die Abhängigkeit von NVidia zu verringern. Gleichzeitig soll Innovation gefördert und die globale Expansion erleichtert werden. Des Weiteren sollen die finanziellen Kosten für den Erwerb teurerer Prozessoren gesenkt werden, um der wachsenden Nachfrage nach KI-Diensten großer Cloud-Computing-Unternehmen gerecht zu werden.

„Es gibt ein erhebliches Ungleichgewicht zwischen Angebot und Nachfrage bei GPUs, da Generative-AI-Modelle im Allgemeinen und insbesondere multimodale Systeme, die Bilder und Videos erzeugen, die parallelen Verarbeitungskapazitäten von GPUs stark ausnutzen. Und eben diese Chips sind teuer und rar“, erklärt Beatriz Valle, Senior Technology und Business Services Analystin bei GlobalData.

„Um diesem Trend entgegenzuwirken, setzen Hyperscaler, die KI-Dienste anbieten, auf proprietäre Technologien, um die KI-Arbeitslasten zu bewältigen. Google hat seine TPUs und Amazon seine Inferentia- und Trainium-Architekturen. Dazu kündigte Meta kürzlich eine neue Generation maßgeschneiderter Chips an, um KI-basierte Rankings und Anzeigen auf seinen Social-Media-Plattformen zu unterstützen“, ergänzt Beatriz Valle.

Partnerschaft zwischen AWS und NVidia

Während der Einführung des neuen Blackwell-Super-GPU im März erklärte NVidia, dass der neue Prozessor dazu in der Lage sei, LLM-Modelle mit Billionen von Parametern zu betreiben und dabei bis zu 25-mal weniger Kosten und Energieverbrauch als sein Vorgänger zu verursachen. Zu diesem Zeitpunkt erwähnte Jensen Huang (CEO von NVidia), dass viele Organisationen darauf warten, den neuen Blackwell einzusetzen – darunter AWS, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla und xAI.

„Seit drei Jahrzehnten verfolgen wir das Ziel der beschleunigten Datenverarbeitung, um transformative Durchbrüche wie Deep Learning und Künstliche Intelligenz zu ermöglichen. Generative AI ist die entscheidende Technologie unserer Zeit und Blackwell ist der Motor, der diese neue industrielle Revolution antreiben wird. In Zusammenarbeit mit den dynamischsten Unternehmen der Welt werden wir das Versprechen der KI in allen Branchen erfüllen“, sagte Huang. „Der neue Blackwell-GPU wird gut auf AWS funktionieren. Und deshalb hat NVidia AWS ausgewählt, um gemeinsam Project Ceiba zu entwickeln: Hier werden Blackwell-Superchips mit der fortschrittlichen Virtualisierung des AWS Nitro-Systems und der ultraschnellen Netzwerktechnologie des Elastic Fabric Adapters für die eigene KI-Forschung und -Entwicklung von NVidia kombiniert. Durch diese gemeinsame Anstrengung zwischen AWS- und NVidia-Ingenieuren werden wir weiterhin gemeinsam innovativ sein, um AWS zum besten Ort für die Nutzung von NVidia-GPUs in der Cloud zu machen“, sagte Andy Jassy, Präsident und CEO von Amazon.