Google é a terceira maior designer de processadores para data centers

Google TPU
Sheila Zabeu -

Junho 03, 2024

Pense no Google, e o que lhe vem à cabeça? Certamente, virá a imagem do principal mecanismo de busca na Internet dos últimos tempos e, mais recentemente, computação em nuvem e Inteligência Artificial (IA). Você se espantaria em saber que o Google também atua há quase uma década no design de aceleradores de IA para data centers desde que lançou em 2015 a Tensor Product Unit (TPU), circuito integrado de aplicação específica (ASIC) projetado especificamente para acelerar cargas de trabalho de aprendizado de máquina (ML)?

De acordo com a TechInsights, o Google é atualmente a terceira maior designer de processadores para data centers, com uma participação de mercado comparável a de empresas mais proeminentes, como Intel ou AMD. E a previsão é que siga crescendo ao longo de 2024. O uso de chips personalizados do Google em seus próprios data centers atingiu a marca de 2 milhões no ano passado, número que o coloca atrás apenas da NVidia e da Intel em termos de participação de mercado, segundo análise da TechInsights.

De acordo com a avaliação da TechInsights, as gerações da TPU do Google têm contribuído para o crescimento da empresa ano após ano. Com a TPU v4 introduzida em 2021 e o surgimento de grandes modelos de linguagem, os negócios de processadores do Google cresceram significativamente.

Para estimular ainda mais esse movimento, o Google contratou inclusive um veterano da Intel em março passado para liderar uma nova divisão que desenvolverá sistemas em chips (SoCs) personalizados para os data centers da empresa. Também planeja recrutar centenas de engenheiros para criar novos circuitos altamente integrados e substituir placas-mãe servidores do Google até meados da década, segundo matéria do site Tom’s Hardware.

Tendência de mercado

Prestadores de serviços na nuvem em hiperescala, os chamados hyperscalers, como Google, Meta, Microsoft e Amazon, estão investindo estrategicamente no desenvolvimento de tecnologias proprietárias de semicondutores em resposta à crescente demanda por GPUs no mercado de IA Generativa (GenAI).

Além do Google, Microsoft e AWS também têm feito incursões no mundo dos chips proprietários. Em novembro passado, durante a conferência Ignite, a Microsoft revelou a CPU Azure Cobalt 100 baseada em tecnologia Arm para cargas de trabalho genéricas e o acelerador Azure Maia 100 AI para uso na nuvem Azure e otimizado para IA Generativa. No mesmo mês, a AWS apresentou a quarta geração de seu processador caseiro, Graviton4, também baseado em tecnologia Arm. Segundo a empresa, desde o lançamento em 2018, já foram implantados mais de dois milhões de chips Graviton para mais de 50.000 clientes e 150 tipos de instâncias.

De acordo com a GlobalData, esse movimento de chips personalizados visa reduzir a dependência da NVidia e também promover a inovação e facilitar a expansão global. Além disso, busca diminuir os custos financeiros da aquisição de processadores mais caros para atender à crescente demanda por serviços de IA enfrentada pelas grandes empresas de computação em nuvem.

“Há um significativo desequilíbrio entre oferta e demanda quando se trata de GPUs, porque os modelos de IA Generativa, em geral, e especialmente os sistemas multimodais que produzem imagens e vídeos, exploram muito os recursos de processamento paralelo das GPUs. E esses chips são caros e escassos”, explica Beatriz Valle, analista sênior de tecnologia e serviços empresariais da GlobalData.

“Para enfrentar essa tendência, os hiperscalers que prestam serviços de IA estão adotando tecnologias proprietárias para executar as cargas de trabalho de IA. O Google conta com suas TPUs; a Amazon tem suas arquiteturas Inferentia e Trainium. Já a Meta anunciou recentemente uma nova geração de chips personalizados para ajudar a impulsionar classificações e anúncios baseados em IA em suas plataformas de mídia social”, relembra a executiva.

Parceria entre AWS e NVidia

Durante o lançamento da nova super GPU Blackwell em março, a NVidia declarou que o novo processador seria capaz de executar modelos LLM com trilhões de parâmetros e até 25 vezes menos custo e consumo de energia do que seu antecessor. Na oportunidade, Jensen Huang, CEO da NVidia, citou que muitas organizações estavam à espera para adotar a nova Blackwell, entre elas AWS, ao lado de Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI.

“Durante três décadas buscamos a computação acelerada com o objetivo de possibilitar avanços transformadores como aprendizado profundo e Inteligência Artificial. A IA Generativa é a tecnologia que define nosso tempo, e a Blackwell é o motor que impulsionará essa nova revolução industrial. Trabalhando com as empresas mais dinâmicas do mundo, cumpriremos a promessa da IA em todos os setores”, afirmou Huang. “A nova GPU Blackwell funcionará muito bem na AWS. E é por isso que a NVidia escolheu a AWS para codesenvolver o Projeto Ceiba, combinando os superchips Blackwell com a virtualização avançada do AWS Nitro System e a rede ultrarrápida do Elastic Fabric Adapter para pesquisa e desenvolvimento de IA da própria NVidia. Por meio desse esforço conjunto entre engenheiros da AWS e da NVidia, seguiremos inovando juntos para tornar a AWS o melhor lugar para qualquer pessoa usar GPUs da NVidia na nuvem”, destacou Andy Jassy, presidente e CEO da Amazon