O Google anuncia uma mudança estratégica em sua linha de hardware para inteligência artificial, separando as tarefas de treinamento de modelos e inferência em processadores distintos. A decisão marca a oitava geração da unidade de processamento tensorial, conhecida como TPU, com lançamento previsto para o final deste ano.
O que você precisa saber
- A nova arquitetura visa otimizar a eficiência para agentes de IA, que exigem demandas computacionais diferentes para aprendizado e execução.
- O chip de treinamento oferece um desempenho 2,8 vezes superior à sétima geração, enquanto o processador de inferência apresenta uma melhoria de 80% em performance.
- Empresas como aAnthropice laboratórios do Departamento de Energia dos Estados Unidos já integram os chips da companhia em suas operações.

Estratégia de mercado e concorrência
A iniciativa reforça a disputa da gigante de tecnologia com a Nvidia no mercado de semicondutores especializados. Embora o Google continue sendo um grande cliente da Nvidia, a empresa busca oferecer alternativas para usuários de seus serviços em nuvem, seguindo a tendência de verticalização adotada por companhias como Apple, Microsoft e Meta.
O novo chip de inferência, denominado TPU 8i, utiliza memória SRAM para garantir baixa latência, componente essencial para o processamento de milhões de agentes simultâneos. A aposta em hardware próprio reflete a busca por eficiência em um setor onde a infraestrutura de dados é o principal diferencial competitivo.
Impacto no ecossistema de tecnologia
Analistas estimam que o negócio de TPUs, aliado à divisão Google DeepMind, possui valor de mercado expressivo, consolidando a posição da companhia na corrida pela liderança em IA. A adoção crescente por instituições financeiras e centros de pesquisa demonstra a maturidade da tecnologia desenvolvida pela empresa.
Fonte: Cnbc