{"id":11217,"date":"2023-05-31T11:25:48","date_gmt":"2023-05-31T11:25:48","guid":{"rendered":"https:\/\/network-king.net\/meta-stellt-neues-design-fuer-ki-rechenzentren-vor\/"},"modified":"2023-05-31T11:31:12","modified_gmt":"2023-05-31T11:31:12","slug":"meta-stellt-neues-design-fuer-ki-rechenzentren-vor","status":"publish","type":"articles","link":"https:\/\/network-king.net\/de\/meta-stellt-neues-design-fuer-ki-rechenzentren-vor\/","title":{"rendered":"Meta stellt neues Design f\u00fcr KI-Rechenzentren vor"},"content":{"rendered":"\n<p>Im Rahmen eines Plans zum Aufbau einer neuen Infrastrukturgeneration f\u00fcr k\u00fcnstliche Intelligenz (KI) hat Meta k\u00fcrzlich einige Details zu Fortschritten in diesem Bereich bekannt gegeben. Dazu geh\u00f6ren ein neues, optimiertes Rechenzentrumsdesign sowie der erste Chip des Unternehmens speziell f\u00fcr die Ausf\u00fchrung von KI-Modellen. Auch die zweite Phase eines Supercomputers mit 16.000 GPUs f\u00fcr die KI-Forschung war Teil der neuen Technologien. Nach Angaben von Meta werden es diese Ma\u00dfnahmen dem Unternehmen erm\u00f6glichen, umfangreichere sowie anspruchsvollere KI-Modelle zu entwickeln und diese dann effizient in einem gro\u00dfen Ma\u00dfstab einzusetzen.<\/p>\n\n\n\n<p>Seit der Er\u00f6ffnung seines ersten Rechenzentrums im Jahr 2010 hat Meta eine globale Infrastruktur f\u00fcr seine Produktfamilie aufgebaut. Nach Angaben des Unternehmens ist KI seit vielen Jahren ein wichtiger Bestandteil dieser Systeme. Dazu geh\u00f6ren Elemente wie die <a href=\"https:\/\/engineering.fb.com\/2022\/10\/18\/open-source\/ocp-summit-2022-grand-teton\/\" target=\"_blank\" rel=\"noreferrer noopener\">Big Sur<\/a> Hardware, die Entwicklung des <a href=\"https:\/\/ai.facebook.com\/blog\/pytorch-builds-the-future-of-ai-and-machine-learning-at-facebook\/\" target=\"_blank\" rel=\"noreferrer noopener\">PyTorch<\/a> Machine Learning Frameworks und der <a href=\"https:\/\/ai.facebook.com\/blog\/ai-rsc\/\" target=\"_blank\" rel=\"noreferrer noopener\">Supercomputer<\/a> f\u00fcr die KI-Forschung.<\/p>\n\n\n\n<p>Das neue Design des Rechenzentrums soll nun erm\u00f6glichen, mit zuk\u00fcnftigen Hardware-Generationen zu arbeiten, die sich auf KI-Training und -Inferenz konzentrieren. Es wird eine Optimierung beinhalten, die fl\u00fcssigkeitsgek\u00fchlte Hardware und ein Hochleistungs-KI-Netzwerk unterst\u00fctzt, das Tausende von Chips f\u00fcr KI-Trainingscluster verbindet. Auch soll der Bau von derartigen Rechenzentren schneller sowie kosteng\u00fcnstiger ablaufen. Das Design soll andere neue Hardwarekomponenten erg\u00e4nzen, wie den Meta Scalable Video Processor (<a href=\"https:\/\/ai.facebook.com\/blog\/meta-scalable-video-processor-MSVP\/\" target=\"_blank\" rel=\"noreferrer noopener\">MSVP<\/a>), Metas erste intern entwickelte ASIC-L\u00f6sung f\u00fcr die Ausf\u00fchrung von Video-Workloads \u2013 ein Bereich, der im Unternehmen st\u00e4ndig w\u00e4chst.<\/p>\n\n\n\n<p>Der Meta Training and Inference Accelerator (<a href=\"https:\/\/ai.facebook.com\/blog\/meta-training-inference-accelerator-AI-MTIA\/\" target=\"_blank\" rel=\"noreferrer noopener\">MTIA<\/a>) der n\u00e4chsten Generation besteht aus den ersten Beschleunigerchips, die auf KI-Inferenz-Workloads ausgerichtet sind. Er bietet eine h\u00f6here Rechenleistung sowie Effizienz als CPUs und ist auf die internen Arbeitslasten von Meta zugeschnitten. Durch den Einsatz von MTIA-Chips und GPUs kann Meta eine bessere Leistung, geringere Latenzzeiten und eine h\u00f6here Effizienz erreichen.<\/p>\n\n\n\n<p>Die erste Generation von MTIA wurde im Jahr 2020 eingef\u00fchrt. Inzwischen ist dieser Inferenzbeschleuniger Teil einer Komplettl\u00f6sung, die Chip, PyTorch und Empfehlungsvorlagen umfasst. Er wird im 7-nm-Prozess von TSMC hergestellt, arbeitet mit 800 MHz und liefert 102,4 TOPS (Teraoperations pro Sekunde) bei INT8-Pr\u00e4zision und 51,2 TFLOPS (Floating Point Teraoperations pro Sekunde) bei FP16-Pr\u00e4zision \u2013 bei einer Thermal Design Power (TDP) von 25 W.<\/p>\n\n\n\n<p>Im Bereich der Supercomputer betreffen die Neuigkeiten von Meta die zweite Phase des AI Research SuperClusters (<a href=\"https:\/\/ai.facebook.com\/blog\/supercomputer-meta-research-supercluster-2023\/\" target=\"_blank\" rel=\"noreferrer noopener\">RSC<\/a>): Der Gro\u00dfrechner ist nach Ansicht des Unternehmens eines der schnellsten KI-Modelle der Welt. Er soll die n\u00e4chste Generation gro\u00dfer KI-Modelle trainieren und unter anderem mit neuen Augmented-Reality-Tools, Systemen zum Verstehen von Inhalten sowie \u00dcbersetzungstechnologien arbeiten. Der RSC verf\u00fcgt \u00fcber 16.000 Grafikprozessoren, die alle \u00fcber das Clos-Netzwerk erreichbar sind: Diese Netzwerkart verf\u00fcgt \u00fcber die n\u00f6tige Bandbreite, um jedes der 2.000 Trainingssysteme zu bedienen.<\/p>\n\n\n\n<p>Der RSC kann eine Rechenleistung von fast 5 Exaflops erreichen. Das hei\u00dft: Der Gro\u00dfrechner ist dazu f\u00e4hig, eine Trillion Berechnungen pro Sekunde durchf\u00fchren. Diese Leistung l\u00e4sst sich mit 2.000 NVIDIA DGX A100 Systemen als Rechenknoten des RSC erreichen \u2013 also insgesamt 16.000 NVIDIA A100 Tensor Core GPUs, die \u00fcber ein Netz von 16 Tb\/s NVIDIA Quantum InfiniBand Netzwerken verbunden sind.<\/p>\n\n\n\n<p>Nach Angaben von Meta erm\u00f6glichen bereits einige Projekte, die RSC nutzen, eine Forschungsbeschleunigung in Bereichen wie <a href=\"https:\/\/ai.facebook.com\/blog\/large-language-model-llama-meta-ai\/\" target=\"_blank\" rel=\"noreferrer noopener\">LLM (Large Language Model)<\/a>, universelle Sprach\u00fcbersetzung und <a href=\"https:\/\/ai.facebook.com\/blog\/supercomputer-meta-research-supercluster-2023\/#theorem\" target=\"_blank\" rel=\"noreferrer noopener\">Theorembeweise<\/a>. Meta beobachtet die Leistung der ersten Projekte, um zu verstehen, wie sich die Zuweisung von GPUs besser handhaben l\u00e4sst. Auch sollen so weitere Erkenntnisse f\u00fcr die k\u00fcnftige Entwicklung des Supercomputers gewonnen werden. Dieser hat beispielsweise bereits gelernt, dass die Kapazit\u00e4tszuweisung ein dynamisches QoS-Modell annehmen kann, um die Ressourcenkonkurrenz f\u00fcr die 16.000 GPUs zu verringern. In Zusammenarbeit mit Penguin Computing wurde auch das Gesamtmanagement des Clusters verbessert \u2013 und es ist gelungen, die Verf\u00fcgbarkeit konstant \u00fcber 95 % zu halten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">W\u00e4hrenddessen in Deutschland&#8230;<\/h2>\n\n\n\n<p>Auf der International Supercomputing Conference (ISC) in Deutschland hat Intel weitere Einzelheiten \u00fcber einen KI-Chip bekannt gegeben, der im Jahr 2025 auf den Markt kommen soll. Laut Jeff McVeigh, Vizepr\u00e4sident von Intels Supercomputing-Gruppe, wird die Falcon Shores-Plattform CPU und GPU nicht mehr in einer XPU zusammenf\u00fchren: Der Markt habe sich so stark ver\u00e4ndert, dass eine Integration nicht mehr sinnvoll sei. Jetzt wird Falcon Shores nur noch eine GPU mit 288 Gigabyte Speicher und 8-Bit-Flie\u00dfkomma-Verarbeitung sein.<\/p>\n\n\n\n<p>\u201eWenn die Arbeitslasten feststehen und wenn klar ist, dass sie sich nicht dramatisch \u00e4ndern werden, ist die Integration vielversprechend\u201c, erkl\u00e4rt McVeigh. Dazu stellt er fest, dass KI- und HPC-Arbeitslasten derzeit zu dynamisch sind, als dass eine Integration sinnvoll w\u00e4re.<\/p>\n\n\n\n<p>Die <a href=\"https:\/\/www.theregister.com\/2023\/05\/22\/intel_abandons_xpu\/\" target=\"_blank\" rel=\"noreferrer noopener\">Entscheidung<\/a>, die kombinierte CPU-GPU-Architektur nicht weiterzuverfolgen, hat mit Intels ge\u00e4nderter Strategie zu tun: Das Unternehmen will auf Nvidias F\u00fchrung auf dem Markt f\u00fcr KI-Chips reagieren, ebenso wie auf <a href=\"https:\/\/www.tomshardware.com\/news\/new-amd-instinct-mi300-details-emerge-debuts-in-2-exaflop-el-capitan-supercomputer\" target=\"_blank\" rel=\"noreferrer noopener\">AMDs bevorstehenden MI300-Chip<\/a>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-der-markt-fur-rechenzentren-und-ki\">Der Markt f\u00fcr Rechenzentren und KI<\/h2>\n\n\n\n<p><a href=\"https:\/\/www.alliedmarketresearch.com\/generative-ai-market-A47396\" target=\"_blank\" rel=\"noreferrer noopener\">Der Markt f\u00fcr generative KI<\/a> soll bis 2031 voraussichtlich 126,5 Milliarden US-Dollar bei einer j\u00e4hrlichen Wachstumsrate von 32 % erreichen \u2013 eine direkte Konsequenz dieses Wachstums ist die erh\u00f6hte Nachfrage nach Rechenzentrumsressourcen. Aus diesem Grund steigt auch der Bedarf an h\u00f6heren Leistungsdichten der IT-Systeme, die KI-Anwendungen unterst\u00fctzen. Dies bringt Herausforderungen f\u00fcr bestehende Rechenzentren mit sich \u2013 insbesondere f\u00fcr \u00e4ltere Anlagen.<\/p>\n\n\n\n<p>\u201eDiese Situation macht den Wechsel zu Cloud-Diensten f\u00fcr viele Unternehmen unumg\u00e4nglich, obwohl sie gleichzeitig entscheiden m\u00fcssen, wie sie ihre derzeitige Infrastruktur und Anlagen verwalten wollen\u201c, erl\u00e4uterte Chris Street, Direktor f\u00fcr Rechenzentren bei JLL, in einem Interview mit <a href=\"https:\/\/techwireasia.com\/2023\/05\/heres-how-generative-ai-is-affecting-data-centers\/\" target=\"_blank\" rel=\"noreferrer noopener\">Tech Wire Asia<\/a>.<\/p>\n\n\n\n<p>Der m\u00f6gliche Ausschluss von Unternehmen mit geringen M\u00f6glichkeiten zur Investition in KI-Workloads ist ein akutes Problem. Eine weitere Herausforderung, die dar\u00fcber hinausgeht, h\u00e4ngt mit dem Aspekt der Nachhaltigkeit zusammen: Street zufolge ist eine Zusammenarbeit zwischen der Rechenzentrumsbranche, anderen Technologieunternehmen, Regierungsbeh\u00f6rden, Regulierungsbeh\u00f6rden und Gemeinden erforderlich, um die Bem\u00fchungen um Nachhaltigkeit voranzutreiben. \u201eDiese Bestreben beginnen mit der Bewertung, wie die Strategien von Rechenzentren mit den Unternehmenszielen und -vorgaben sowie den Betriebsstrategien und Pr\u00fcfungen von Drittanbietern abgestimmt sind\u201c, erkl\u00e4rt Street.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Im Rahmen eines Plans zum Aufbau einer neuen Infrastrukturgeneration f\u00fcr k\u00fcnstliche Intelligenz (KI) hat Meta k\u00fcrzlich einige Details zu Fortschritten in diesem Bereich bekannt gegeben. Dazu geh\u00f6ren ein neues, optimiertes Rechenzentrumsdesign sowie der erste Chip des Unternehmens speziell f\u00fcr die Ausf\u00fchrung von KI-Modellen. Auch die zweite Phase eines Supercomputers mit 16.000 GPUs f\u00fcr die KI-Forschung&#8230;<\/p>\n","protected":false},"featured_media":11200,"comment_status":"closed","ping_status":"closed","template":"","format":[],"category":[74],"tags":[],"company":[],"topic":[],"class_list":["post-11217","articles","type-articles","status-publish","has-post-thumbnail","hentry","category-datacenter"],"acf":[],"_links":{"self":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles\/11217","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles"}],"about":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/types\/articles"}],"replies":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/comments?post=11217"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media\/11200"}],"wp:attachment":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media?parent=11217"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/category?post=11217"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/tags?post=11217"},{"taxonomy":"format","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/format?post=11217"},{"taxonomy":"company","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/company?post=11217"},{"taxonomy":"topic","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/topic?post=11217"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}