INTRODUÇÃO

O Google Cloud anunciou nesta quarta-feira a divisão de sua oitava geração de chips de processamento de tensores (TPUs) em duas versões especializadas: a TPU 8t, focada no treinamento de modelos de IA, e a TPU 8i, voltada para inferência, que é o uso contínuo dos modelos após o envio de prompts pelos usuários.

DESENVOLVIMENTO

Publicidade
Publicidade

A empresa divulgou especificações de desempenho impressionantes em comparação com as gerações anteriores, incluindo treinamento de modelos de IA até 3 vezes mais rápido, 80% mais desempenho por dólar e a capacidade de conectar mais de 1 milhão de TPUs em um único cluster. O resultado esperado é mais poder computacional com menos energia e custo para os clientes. Embora o Google chame esses chips de TPUs, e não GPUs, devido à origem do nome "Tensor", a estratégia não representa um ataque frontal ao futuro da Nvidia. Assim como outros grandes provedores de nuvem, como Microsoft e Amazon, o Google está usando esses chips para complementar os sistemas baseados em Nvidia em sua infraestrutura, não para substituí-los completamente. De fato, o Google promete disponibilizar o mais recente chip da Nvidia, Vera Rubin, em sua nuvem ainda este ano.

CONCLUSÃO

Embora os hiperescaladores que constroem seus próprios chips de IA possam um dia depender menos da Nvidia, à medida que as empresas migram suas necessidades de IA para a nuvem e adaptam seus aplicativos, a aposta contra a Nvidia ainda não é lucrativa no cenário atual. Como observou o analista de mercado de chips Patrick Moorhead, previsões anteriores sobre o impacto dos TPUs do Google na Nvidia mostram que a competição é gradual, e a coexistência com soluções da Nvidia permanece uma realidade estratégica.