Meta firma acordo de chips com Broadcom e expande parceria em IA

Meta e Broadcom expandem parceria em IA com acordo de chips customizados até 2029, comprometendo-se com 1 gigawatt de aceleradores.

A Meta e a Broadcom anunciaram nesta terça-feira (14) um acordo abrangente que estende a parceria existente para o design de aceleradores de IA customizados da Meta até 2029. Simultaneamente, a Meta informou que o CEO da Broadcom, Hock Tan, decidiu não se candidatar à reeleição no conselho da Meta, onde ingressou em 2024.

Parceria entre Meta e Broadcom para aceleradores de IA
Acordo entre Meta e Broadcom visa expandir o desenvolvimento de chips para inteligência artificial.
Meta firma acordo de chips com Broadcom para desenvolver IA
Meta firma acordo de chips com Broadcom para desenvolver IA.

A Meta se comprometeu com uma implantação inicial de 1 gigawatt de seus Aceleradores de Treinamento e Inferência (MTIA). O acordo prevê que a Meta implante múltiplos gigawatts de chips baseados na tecnologia da Broadcom.

Nova Geração de Chips MTIA

Os chips MTIA serão os primeiros a utilizar um processo de 2 nanômetros, conforme comunicado pela Broadcom. Mark Zuckerberg, cofundador e CEO da Meta, declarou que a empresa está fazendo parceria com a Broadcom em design de chips, empacotamento e redes para construir a base computacional massiva necessária para entregar superinteligência pessoal a bilhões de pessoas.

Reação do Mercado e Busca por Alternativas

As ações da Broadcom subiram 3% após o anúncio, enquanto as da Meta permaneceram estáveis. Hock Tan afirmou em março que o roteiro do MTIA da Meta está “vivo e bem”, com planos de escalar para múltiplos gigawatts em 2027 e além. A Meta apresentou quatro novas versões de seus chips MTIA em março, seguindo programas similares de empresas como Google e amazon. Essas empresas buscam alternativas às unidades de processamento gráfico (GPUs) da Nvidia e AMD, que são caras e de oferta limitada, para alimentar seus data centers de IA.

ASICs vs. GPUs no Desenvolvimento de IA

Os hiperscalers estão desenvolvendo circuitos integrados de aplicação específica (ASICs), que são menores e mais baratos que as GPUs de propósito geral, mas limitados a um conjunto mais restrito de tarefas. O Google foi pioneiro com sua Tensor Processing Unit (TPU) em 2015, seguido pela Amazon em 2018. Diferentemente das soluções do Google e Amazon, que são integradas às suas plataformas de computação em nuvem, os chips MTIA da Meta são utilizados exclusivamente para fins internos.

Fonte: Cnbc

Adicionar um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Imagens e vídeos são de seus respectivos autores.
Uso apenas editorial e jornalístico, sem representar opinião do site.

Precisa ajustar crédito ou solicitar remoção? Clique aqui.

Publicidade