Micron vai lançar chips HBM4 com 2 TB/s visando acelerar a corrida da IA

Micron vai lançar chips HBM4 com 2 TB/s visando acelerar a corrida da IA

A corrida pelo domínio da inteligência artificial (IA) está exigindo um novo tipo de hardware — e a Micron acaba de dar um passo importante nessa direção. A empresa anunciou que já está pronta para iniciar o fornecimento experimental de sua memória HBM4, com uma impressionante largura de banda de 2 terabytes por segundo (TB/s).

Os primeiros chips começarão a ser enviados para parceiros estratégicos nas próximas semanas, com foco em um mercado claro: aceleradores de IA. E essa nova geração promete se tornar peça central em futuras placas de alto desempenho de gigantes como NVIDIA e AMD.

Como funciona a nova HBM4 da Micron

 

O avanço técnico é robusto. Os chips HBM4 da Micron combinam 12 die empilhados fabricados com o processo de 1β (one-beta), uma tecnologia de ponta que garante eficiência energética e altas velocidades. Cada stack oferece uma capacidade de 36 GB, com um throughput que dobrou em relação à geração anterior graças ao aumento no número de canais.

Para se ter uma ideia, a especificação da HBM4 no padrão JEDEC define uma interface de 2048 bits, o que ajuda a explicar como a Micron atingiu esse novo patamar de banda.

NVIDIA e AMD já têm planos para adotar a HBM4

Os primeiros produtos a incorporar a nova memória já estão no radar. A NVIDIA pretende usar a HBM4 em seus futuros aceleradores baseados na arquitetura Vera Rubin, com lançamento previsto para o próximo ano. O modelo topo de linha, Rubin Ultra, deverá chegar ao mercado com até 1 terabyte (TB) de HBM4, consolidando um salto considerável em capacidade.

A AMD também já está se preparando para a transição. A empresa deve adotar a memória HBM4 na futura geração de aceleradores Instinct MI400, fortalecendo ainda mais sua presença em data centers voltados para IA.

O que esperar do mercado com a chegada da HBM4

Esse movimento da Micron marca um divisor de águas. Com aplicações que vão desde grandes modelos de linguagem (LLMs) até simulações científicas e gráficos avançados, a demanda por memória de altíssima largura de banda é crescente — e a HBM4 promete entregar o que o mercado exige.

Além disso, ao iniciar o fornecimento experimental ainda em 2025, a Micron sai na frente da concorrência e aumenta a pressão sobre rivais como Samsung e SK hynix.

Em um cenário onde a IA se torna cada vez mais estratégica para empresas e governos, quem dominar a infraestrutura por trás dessa tecnologia terá uma vantagem clara. E a memória HBM4 já se coloca como uma peça-chave nesse tabuleiro.

Você também deve ler!

O que são memórias High Bandwidth Memory (HBM)

Leave A Comment

You must be logged in to post a comment.

Back to Top