A Google Cloud anunciou nesta quarta-feira (22) a oitava geração de seus chips de inteligência artificial desenvolvidos internamente, os Tensor Processing Units (TPUs). Pela primeira vez, a linha será dividida em dois modelos: o TPU 8t, dedicado ao treinamento de modelos, e o TPU 8i, focado em inferência, ou seja, na execução contínua desses modelos após o treinamento.
De acordo com a companhia, a nova geração oferece até três vezes mais velocidade de treinamento em comparação com a anterior, além de 80% de ganho em desempenho por dólar. Outra novidade é a possibilidade de agrupar mais de 1 milhão de TPUs em um único cluster, o que, segundo o Google, deve reduzir custos e consumo de energia para os clientes.
A empresa mantém a nomenclatura TPU em vez de GPU porque os chips foram concebidos especificamente para operações de tensor e priorizam baixo consumo de energia. Ainda assim, o Google não abandona as GPUs da Nvidia: a plataforma cloud seguirá oferecendo esses processadores e promete disponibilizar o Vera Rubin, futuro chip da Nvidia, até o fim do ano.
Google, Microsoft e Amazon vêm investindo em semicondutores próprios para IA, mas, por ora, essas soluções funcionam como complemento – não como substituição – aos sistemas baseados em Nvidia. Analistas estimam que, mesmo com o avanço dos chips proprietários, a demanda por GPUs da empresa continuará crescendo.

Imagem: Internet
O Google informou ainda que trabalha em parceria com a Nvidia para aprimorar o desempenho das GPUs em sua nuvem, utilizando a tecnologia de rede baseada em software denominada Falcon. Criada pelo Google e disponibilizada como código aberto em 2023 no âmbito do Open Compute Project, a Falcon deve reforçar a eficiência de comunicação entre servidores equipados com chips da Nvidia na infraestrutura da nuvem.
Com informações de TechCrunch







