{"id":16430,"date":"2024-06-04T16:05:57","date_gmt":"2024-06-04T16:05:57","guid":{"rendered":"https:\/\/network-king.net\/neue-prozessoren-fuer-rechenzentren-google-wird-drittgroesster-entwickler\/"},"modified":"2024-06-04T16:09:13","modified_gmt":"2024-06-04T16:09:13","slug":"neue-prozessoren-fuer-rechenzentren-google-wird-drittgroesster-entwickler","status":"publish","type":"articles","link":"https:\/\/network-king.net\/de\/neue-prozessoren-fuer-rechenzentren-google-wird-drittgroesster-entwickler\/","title":{"rendered":"Neue Prozessoren f\u00fcr Rechenzentren: Google wird drittgr\u00f6\u00dfter Entwickler"},"content":{"rendered":"\n<p>Google ist vielen als f\u00fchrende Suchmaschine bekannt. In den letzten Jahren hat sich das Unternehmen jedoch zu einer bedeutenden Instanz in den Bereichen Cloud-Computing und k\u00fcnstliche Intelligenz (KI) entwickelt. Was viele nicht wissen: Google arbeitet bereits seit fast einem Jahrzehnt an der Entwicklung von KI-Beschleunigern f\u00fcr Rechenzentren. Im Jahr 2015 brachte das Unternehmen die <a href=\"https:\/\/semiengineering.com\/knowledge_centers\/integrated-circuit\/ic-types\/processors\/tensor-processing-unit-tpu\/\" target=\"_blank\" rel=\"noopener\">Tensor Processing Unit (TPU)<\/a> auf den Markt, einen anwendungsspezifischen integrierten Schaltkreis (ASIC), der speziell f\u00fcr die Beschleunigung von maschinellen Lernprozessen (ML) entwickelt wurde.<\/p>\n\n\n\n<p>Laut TechInsights ist Google derzeit der drittgr\u00f6\u00dfte Entwickler von Prozessoren f\u00fcr Rechenzentren \u2013 mit einem Marktanteil, der mit dem von Intel oder AMD vergleichbar ist. Es ist davon auszugehen, dass dieses Wachstum auch in 2024 anh\u00e4lt. Bereits im letzten Jahr nutzte Google ma\u00dfgeschneiderte Chips in seinen Rechenzentren und erreichte dabei die Zwei-Millionen-Marke. Diese Zahl stellt Google laut der Analyse von TechInsights direkt <a href=\"https:\/\/www.theregister.com\/2024\/05\/21\/google_now_thirdlargest_in_datacenter\/\" target=\"_blank\" rel=\"noopener\">hinter die Marktf\u00fchrer NVidia und Intel<\/a>.<\/p>\n\n\n\n<p>Nach den Angaben von TechInsights haben die TPU-Generationen zum kontinuierlichen Wachstum von Google beigetragen. Mit der Einf\u00fchrung von TPU v4 im Jahr 2021 und dem Aufkommen gro\u00dfer Sprachmodelle ist Googles Prozessor-Gesch\u00e4ft dementsprechend stark gewachsen.<\/p>\n\n\n\n<p>Um diesen Bereich weiter voranzutreiben, holte Google im M\u00e4rz einen <a href=\"https:\/\/www.tomshardware.com\/news\/google-cloud-socs-uri-frank\" target=\"_blank\" rel=\"noopener\">fr\u00fcheren Intel-Mitarbeiter an Bord<\/a>. Er soll die Leitung einer neuen Abteilung \u00fcbernehmen, die sich der Entwicklung ma\u00dfgeschneiderter System-on-Chips (SoCs) f\u00fcr die Rechenzentren des Unternehmens widmet. Um die Entwicklung eigener KI-Chips voranzutreiben, plant Google die Einstellung von Hunderten Ingenieuren. Diese sollen bis Mitte des Jahrzehnts neue hochintegrierte Schaltkreise entwickeln und die Server-Motherboards des Unternehmens ersetzen, so ein Artikel auf der Website von Tom\u2019s Hardware.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-markttrends\">Markttrends<\/h2>\n\n\n\n<p>Anbieter von Cloud-Diensten, sogenannte Hyperscaler wie Google, Meta, Microsoft und Amazon, investieren strategisch in die Entwicklung eigener Halbleitertechnologien. Dies geschieht als Reaktion auf die steigende Nachfrage nach GPUs im Markt f\u00fcr Generative AI (GenAI).<\/p>\n\n\n\n<p>Neben Google haben auch Microsoft und AWS Fortschritte im Bereich der propriet\u00e4ren Chips verzeichnet. Im November letzten Jahres stellte Microsoft auf der Ignite-Konferenz die Azure Cobalt 100 CPU vor, die auf Arm-Technologie basiert und f\u00fcr generische Arbeitslasten ausgelegt ist. Au\u00dferdem pr\u00e4sentierte Microsoft den Azure Maia 100 KI-Beschleuniger, der f\u00fcr die Nutzung in der Azure-Cloud und f\u00fcr Generative AI optimiert ist. Im selben Monat brachte AWS die vierte Generation seines eigenen Prozessors <a href=\"https:\/\/www.theregister.com\/2023\/11\/28\/aws_graviton_trainium\/\" target=\"_blank\" rel=\"noopener\">Graviton4<\/a> auf den Markt, der ebenfalls auf Arm-Technologie basiert. Laut dem Unternehmen wurden seit der Einf\u00fchrung im Jahr 2018 mehr als zwei Millionen Graviton-Chips an \u00fcber 50.000 Kunden und 150 Instanztypen ausgeliefert.<\/p>\n\n\n\n<p>GlobalData zufolge zielt der Schritt zu ma\u00dfgeschneiderten Chips darauf ab, die Abh\u00e4ngigkeit von NVidia zu verringern. Gleichzeitig soll Innovation gef\u00f6rdert und die globale Expansion erleichtert werden. Des Weiteren sollen die finanziellen Kosten f\u00fcr den Erwerb teurerer Prozessoren gesenkt werden, um der wachsenden Nachfrage nach KI-Diensten gro\u00dfer Cloud-Computing-Unternehmen gerecht zu werden.<\/p>\n\n\n\n<p>\u201eEs gibt ein erhebliches Ungleichgewicht zwischen Angebot und Nachfrage bei GPUs, da Generative-AI-Modelle im Allgemeinen und insbesondere multimodale Systeme, die Bilder und Videos erzeugen, die parallelen Verarbeitungskapazit\u00e4ten von GPUs stark ausnutzen. Und eben diese Chips sind teuer und rar\u201c, erkl\u00e4rt Beatriz Valle, Senior Technology und Business Services Analystin bei GlobalData.<\/p>\n\n\n\n<p>\u201eUm diesem Trend entgegenzuwirken, setzen Hyperscaler, die KI-Dienste anbieten, auf propriet\u00e4re Technologien, um die KI-Arbeitslasten zu bew\u00e4ltigen. Google hat seine TPUs und Amazon seine Inferentia- und Trainium-Architekturen. Dazu k\u00fcndigte Meta k\u00fcrzlich eine neue Generation ma\u00dfgeschneiderter Chips an, um KI-basierte Rankings und Anzeigen auf seinen Social-Media-Plattformen zu unterst\u00fctzen\u201c, erg\u00e4nzt Beatriz Valle.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-partnerschaft-zwischen-aws-und-nvidia\">Partnerschaft zwischen AWS und NVidia<\/h2>\n\n\n\n<p>W\u00e4hrend der Einf\u00fchrung des neuen <a href=\"https:\/\/www.nvidia.com\/en-us\/data-center\/technologies\/blackwell-architecture\/\" target=\"_blank\" rel=\"noopener\">Blackwell-Super-GPU<\/a> im M\u00e4rz erkl\u00e4rte NVidia, dass der neue Prozessor dazu in der Lage sei, LLM-Modelle mit Billionen von Parametern zu betreiben und dabei bis zu 25-mal weniger Kosten und Energieverbrauch als sein Vorg\u00e4nger zu verursachen. Zu diesem Zeitpunkt erw\u00e4hnte Jensen Huang (CEO von NVidia), dass viele Organisationen darauf warten, den neuen Blackwell einzusetzen \u2013 darunter AWS, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla und xAI.<\/p>\n\n\n\n<p>\u201eSeit drei Jahrzehnten verfolgen wir das Ziel der beschleunigten Datenverarbeitung, um transformative Durchbr\u00fcche wie Deep Learning und K\u00fcnstliche Intelligenz zu erm\u00f6glichen. Generative AI ist die entscheidende Technologie unserer Zeit und Blackwell ist der Motor, der diese neue industrielle Revolution antreiben wird. In Zusammenarbeit mit den dynamischsten Unternehmen der Welt werden wir das Versprechen der KI in allen Branchen erf\u00fcllen\u201c, sagte Huang. \u201eDer neue Blackwell-GPU wird gut auf AWS funktionieren. Und deshalb hat NVidia AWS ausgew\u00e4hlt, um gemeinsam Project Ceiba zu entwickeln: Hier werden Blackwell-Superchips mit der fortschrittlichen Virtualisierung des AWS Nitro-Systems und der ultraschnellen Netzwerktechnologie des Elastic Fabric Adapters f\u00fcr die eigene KI-Forschung und -Entwicklung von NVidia kombiniert. Durch diese gemeinsame Anstrengung zwischen AWS- und NVidia-Ingenieuren werden wir weiterhin gemeinsam innovativ sein, um AWS zum besten Ort f\u00fcr die Nutzung von NVidia-GPUs in der Cloud zu machen\u201c, sagte Andy Jassy, Pr\u00e4sident und CEO von Amazon.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google ist vielen als f\u00fchrende Suchmaschine bekannt. In den letzten Jahren hat sich das Unternehmen jedoch zu einer bedeutenden Instanz in den Bereichen Cloud-Computing und k\u00fcnstliche Intelligenz (KI) entwickelt. Was viele nicht wissen: Google arbeitet bereits seit fast einem Jahrzehnt an der Entwicklung von KI-Beschleunigern f\u00fcr Rechenzentren. Im Jahr 2015 brachte das Unternehmen die Tensor&#8230;<\/p>\n","protected":false},"featured_media":16427,"comment_status":"closed","ping_status":"closed","template":"","format":[],"category":[74,74],"tags":[],"company":[],"topic":[],"class_list":["post-16430","articles","type-articles","status-publish","has-post-thumbnail","hentry","category-datacenter"],"acf":[],"_links":{"self":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles\/16430","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles"}],"about":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/types\/articles"}],"replies":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/comments?post=16430"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media\/16427"}],"wp:attachment":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media?parent=16430"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/category?post=16430"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/tags?post=16430"},{"taxonomy":"format","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/format?post=16430"},{"taxonomy":"company","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/company?post=16430"},{"taxonomy":"topic","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/topic?post=16430"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}