Samsung, Micron e Intel dividem grande encomenda da Nvidia: Samsung fabrica LPU, Micron produz em massa HBM4

robot
Geração de resumo em curso

A conferência GTC 2026 da Nvidia não é apenas uma apresentação de produtos, mas também uma redefinição do panorama da cadeia de abastecimento. À medida que os detalhes da arquitetura da próxima plataforma de IA Vera Rubin da Nvidia vão sendo concretizados, os papéis dos três maiores fabricantes de chips — Samsung, Micron e Intel — começam a emergir.

De acordo com a TrendForce, entre as dinâmicas mais observadas na cadeia de abastecimento, o CEO da Nvidia, Jensen Huang, confirmou pela primeira vez que a sua Groq 3 LPU será fabricada pela Samsung; a Micron anunciou que o HBM4 entrou em produção em massa no primeiro trimestre de 2026, quebrando rumores anteriores de exclusão da Vera Rubin na sua cadeia de fornecimento. Estas notícias impactam diretamente a competição no mercado de HBM e o poder de negociação dos fornecedores.

Ao mesmo tempo, a Intel confirmou na conferência a sua parceria com a Nvidia, garantindo que o processador Xeon 6 suportará o sistema DGX Rubin NVL8. A longo prazo, segundo a Wccftech, a Intel poderá participar na fabricação do encapsulamento da próxima geração de GPUs Feynman da Nvidia, prevista para 2028, como fabricante de wafers.

Samsung conquista encomenda de fabricação de LPU, Jensen Huang confirma pessoalmente

A Groq 3 é uma das novidades mais aguardadas nesta GTC. Este LPU, projetado para inferência de alta velocidade, será integrado na plataforma Vera Rubin, com início de entregas previsto para o segundo semestre de 2026. Segundo o Korea JoongAng Daily, Jensen Huang confirmou na conferência que a produção da Groq 3 ficará a cargo da fábrica de wafers da Samsung, continuando o acordo de fabricação que já existia entre a Groq e a Samsung antes da aquisição de 20 mil milhões de dólares pela Nvidia no ano passado.

Tecnicamente, a lógica de design da Groq 3 difere significativamente dos aceleradores de IA convencionais. Segundo a Tom’s Hardware, cada LPU da Groq 3 possui 500MB de SRAM — uma memória ultrarrápida normalmente usada em caches de CPU e GPU.

Embora essa capacidade seja muito menor do que os 288GB de HBM4 equipados na GPU Rubin, a largura de banda de aproximadamente 150TB/s supera em muito os 22TB/s do HBM4. Para tarefas de inferência de IA que exigem alta largura de banda, este design promete melhorar significativamente o desempenho.

A conquista desta encomenda pela Samsung significa que seu papel na cadeia de fornecimento da Nvidia se estende do fornecimento de HBM4 para o de chips lógicos, fortalecendo sua posição estratégica na plataforma Vera Rubin.

Micron inicia produção em massa de HBM4, SK Hynix sob pressão com monopólio de margem

Na conferência, a Micron anunciou oficialmente que o HBM4 de 36GB, empilhado em 12 camadas, começou a ser fornecido em produção em massa para a plataforma Vera Rubin da Nvidia no primeiro trimestre de 2026. O produto tem uma taxa de pinos superior a 11 Gb/s, largura de banda superior a 2,8 TB/s, um aumento de 2,3 vezes em relação ao HBM3E, além de uma eficiência de energia superior a 20%. Além disso, a Micron já começou a enviar amostras de HBM4 de 48GB, empilhado em 16 camadas, com um aumento de 33% na capacidade por chip em relação à versão de 12 camadas.

Este avanço tem um impacto importante no mercado, não apenas pela inovação técnica da Micron. Segundo a Joseilbo.com, a aceleração na produção da Micron reduzirá a concentração de fornecedores de HBM, pressionando os atuais fornecedores na distribuição de volumes e negociações de preços. A reportagem destaca que o efeito principal dessa estratégia não é tanto conquistar fatias de mercado da SK Hynix, mas sim diminuir o monopólio de margens criado durante os picos de demanda por HBM.

A Samsung também enfrenta uma concorrência mais direta. Segundo a Joseilbo.com, embora a Samsung tenha oficialmente iniciado a produção de HBM4 para demonstrar sua capacidade tecnológica, o fornecimento em grande escala da Micron para a plataforma Vera Rubin pode mudar o padrão de avaliação do setor de “capacidade de produção” para “escala de adoção real”, representando um novo desafio para a Samsung.

Intel atua em duas frentes, parceria em encapsulamento de Feynman surge

A presença da Intel nesta GTC também é notável. A Intel confirmou oficialmente que o processador Xeon 6 apoiará o sistema DGX Rubin NVL8 da Nvidia. Segundo a Tom’s Hardware, esse produto oferece uma largura de banda de memória 2,3 vezes maior que a geração anterior, possibilitando uma capacidade de IA de alto desempenho e escalável para cargas de trabalho de próxima geração.

A longo prazo, segundo a Wccftech, a Nvidia pretende colaborar com a Intel na fabricação de encapsulamentos, usando tecnologias avançadas como EMIB, para suportar o encapsulamento da GPU Feynman, prevista para 2028. É importante notar que o chip Feynman deve ser produzido com tecnologia TSMC de 1,6 nm, enquanto a participação da Intel se concentrará principalmente na etapa de encapsulamento.

O sistema Feynman também adotará tecnologia de empilhamento 3D, possivelmente a primeira vez que a Nvidia usará esse método em uma GPU. Quanto ao armazenamento, a Nvidia planeja equipar o Feynman com HBM personalizado, diferenciado das gerações padrão, reforçando sua vantagem competitiva no mercado de data centers de IA.

Aviso de risco e isenção de responsabilidade

        O mercado apresenta riscos, invista com cautela. Este artigo não constitui recomendação de investimento pessoal, nem leva em consideração objetivos, situação financeira ou necessidades específicas de cada usuário. Os usuários devem avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com suas circunstâncias. Investimentos são de responsabilidade do investidor.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar