Samsung revela memórias HBM4E: até 4 TB/s de largura de banda por camada

admin
17 Mar, 2026
A Samsung aproveitou o palco da GTC 2026 , em San Jose, para apresentar ao mundo pela primeira vez o HBM4E , sua memória de sétima geração de alta largura de banda. Com velocidades de transferência de até 16 Gbps por pino e 4 TB/s de largura de banda por stack , o componente representa um salto substancial frente à geração anterior e foi desenvolvido com foco explícito na plataforma NVIDIA Vera Rubin Ultra , prevista para o segundo semestre de 2027. A revelação aconteceu no estande da Samsung na conferência anual da NVIDIA, onde a empresa sul-coreana também exibiu o HBM4 (já em produção em massa) além do módulo de memória SOCAMM2 e os SSDs PM1763 e PM1753 , todos voltados à infraestrutura de IA da NVIDIA. Divulgação/Samsung HBM4E: os números por trás do anúncio O HBM4E chega com configuração de 16 camadas (16-Hi), o que eleva a densidade de memória por stack para 48 GB . Quando combinado com a arquitetura do Rubin Ultra, que prevê quatro chiplets de GPU e 16 sites de memória HBM , os números projetados para o sistema completo se tornam expressivos: até 384 GB de capacidade total de HBM4E e largura de banda agregada de até 64 TB/s , considerando os 16 Gbps por pino. Para efeito de comparação, a plataforma Rubin atual opera com 288 GB de HBM4 e até 22 TB/s de largura de banda . O salto entre as gerações, portanto, é uma reconfiguração da escala de memória disponível para workloads de IA em nível de rack. A fabricação do HBM4E utilizará o processo DRAM de décima geração em classe de 10 nm (1c) da Samsung, o mesmo empregado no HBM4. A empresa afirma ter atingido estabilidade de rendimento nesse nó, o que é um indicador relevante para a viabilidade de produção em escala. HBM4 já em produção e com a aprovação de Jensen Huang Enquanto o HBM4E ainda é exibido como protótipo, o HBM4 já está em produção em massa e serve como base da plataforma NVIDIA Vera Rubin . A memória opera a 11,7 Gbps por pino (acima do padrão da indústria de 8 Gbps) e pode ser ajustada para até 13 Gbps dependendo da configuração do sistema. Divulgação/Samsung O momento simbólico mais marcante da participação da Samsung na GTC veio quando o CEO da NVIDIA, Jensen Huang , visitou o estande e assinou em um wafer de HBM4 os dizeres “Amazing HBM4” ... Um gesto que, no contexto da relação estratégica entre as duas empresas, carrega peso considerável. A Samsung foi a primeira empresa do mundo a apresentar publicamente o HBM4E, consolidando sua posição na corrida pelo fornecimento de memória para as próximas gerações de aceleradores de IA Hybrid Copper Bonding: a tecnologia que viabiliza mais camadas Um dos elementos técnicos mais relevantes apresentados pela Samsung é a tecnologia HCB (Hybrid Copper Bonding), método de empacotamento que substituirá o TCB (Thermal Compression Bonding) nas próximas gerações de HBM. Divulgação/Samsung A HCB permite que chips sejam empilhados em 16 ou mais camadas com uma redução de mais de 20% na resistência térmica em relação ao método atual. Esse avanço no empacotamento é o que viabiliza, na prática, o salto de capacidade e velocidade do HBM4E: mais camadas significam mais memória por stack, e menos calor gerado significa maior estabilidade operacional em sistemas com dezenas de chips funcionando simultaneamente. Além do HBM: SSDs PCIe 6.0 e memória SOCAMM2 A empresa também exibiu o SSD PM1763 , baseado na interface PCIe 6.0 , a mais recente geração do padrão, desenvolvido como solução de armazenamento para IA de próxima geração. O produto será demonstrado em servidores que utilizam o modelo de programação NVIDIA SCADA . Além disso,em destaque estava o PM1753 , SSD que integra a arquitetura de referência NVIDIA BlueField-4 STX , voltada para cargas de trabalho de inferência com maior eficiência energética. Divulgação/Samsung No segmento de memória para servidores, o SOCAMM2 (módulo baseado em DRAM de baixo consumo) já está em produção em massa. A Samsung afirma ser a primeira empresa do mundo a atingir esse marco com esse tipo de produto, o que o posiciona como módulo de referência para a próxima geração de infraestrutura de servidores de IA. Memória para dispositivos locais: LPDDR5X e LPDDR6 A empresa sul-coreana apresentou ainda soluções de memória voltadas para dispositivos de uso pessoal e edge computing. O LPDDR5X entrega velocidades de até 25 Gbps por pino com redução de até 15% no consumo de energia em relação à geração anterior, adequado para smartphones premium, tablets e aplicações de IA em dispositivos móveis. Divulgação/Samsung Já o LPDDR6 eleva a largura de banda para uma faixa escalável de 30 a 35 Gbps por pino e incorpora recursos avançados de gerenciamento de energia, como escalonamento adaptativo de voltagem e controle dinâmico de atualização, tecnologias voltadas a workloads de IA local na próxima geração de dispositivos portáteis. Divulgação/Samsung Roteiro de longo prazo: HBM5 e HBM5E já no horizonte Além do HBM4E, a Samsung revelou seus planos para as duas gerações seguintes de memória de alta largura de banda. O HBM5 (oitava geração) será desenvolvido com o processo DRAM 1c em conjunto com um processo de fundição em 2 nm . O HBM5E (nona geração) avançará para o nó DRAM 1d , também combinado com o processo de 2 nm. Leia também: Monitor Samsung Odyssey 3D terá suporte nativo a mais de 120 games em 3D Mercado de DRAM cresceu mais de 29% no último trimestre e Samsung voltou ao topo Samsung, SK Hynix e Micron se unem para barrar estoque excessivo de memória e conter especulação Parceria que define o ritmo da IA O que a GTC 2026 deixou claro é que a relação entre Samsung e NVIDIA está mais próxima do que nunca e está além de uma cadeia de fornecimento convencional. Com HBM4 em produção, HBM4E em exibição pública pela primeira vez no mundo, SSDs PCIe 6.0 integrados às plataformas NVIDIA e memórias SOCAMM2 já em escala industrial, a Samsung colocou-se como peça central da infraestrutura que sustentará a próxima onda de aceleradores. O ritmo com que essas gerações se sucedem (HBM4, HBM4E, HBM5 e HBM5E anunciadas praticamente em sequência) indica que a corrida por largura de banda em IA não tem prazo de desaceleração à vista. Fonte(s): Samsung Conteúdo Relacionado Voltou! Samsung começa a fabricar chips Groq 3 LPU para a NVIDIA