Brutal: Rambus apresenta controlador HBM4E mais rápido do mundo, com 4,1 TB/s por chip! Trata-se de uma nova tecnologia atinge velocidades de até 16 Gbps por pino, representando um salto de 60% em relação à geração anterior.
O componente foi desenvolvido para atender às necessidades de processamento de dados em sistemas avançados de inteligência artificial (sim, tudo para eles; nada para nós) e computação de alto desempenho.
A empresa posiciona o novo produto como uma solução para os futuros superchips de data centers. O controlador HBM4E é compatível com os próximos aceleradores gráficos da NVIDIA, da linha Rubin Ultra, e com os processadores da AMD, da série MI500.
O anúncio oficial ocorreu por meio de comunicado da companhia, que detalhou as especificações técnicas do componente. A nova geração dobra quase a capacidade de transferência de dados por pino em comparação com o padrão anterior. Enquanto o HBM4 entregava 10 Gbps por pino, a versão HBM4E alcança 16 Gbps.
A seguir, um breve resumo sobre este tema; contudo, aprofundaremos com mais informações logo a seguir:
| Produto anunciado | Controlador de memória HBM4E (High Bandwidth Memory 4E) |
| Empresa responsável | Rambus Inc., fornecedora de IP para semicondutores |
| Velocidade por pino | Até 16 Gbps (60% superior aos 10 Gbps do HBM4) |
| Largura de banda por módulo | Até 4,1 TB/s (comparado a 2,56 TB/s do HBM4) |
| Configuração típica para IA | 8 módulos por acelerador, totalizando 32 TB/s |
| Padrão de memória | HBM4E (evolução do HBM4) |
| Aplicações principais | Aceleradores de IA, GPUs, computação de alto desempenho (HPC) |
| Clientes identificados | NVIDIA (GPUs Rubin Ultra) e AMD (aceleradores série MI500) |
| Tecnologia de integração | Pacotes 2.5D e 3D, compatíveis com PHYs de terceiros ou TSV |
| Recursos incorporados | Baixa latência, mecanismos avançados de confiabilidade |
| Histórico de desenvolvimento | Baseado em mais de 100 projetos anteriores de HBM |
| Disponibilidade comercial | Licenciamento imediato, acesso antecipado para clientes |
| Público-alvo | Projetistas de chips, fabricantes de semicondutores, data centers |
Largura de banda atinge 4,1 TB por módulo
Com o aumento da velocidade por pino, a largura de banda total por módulo de memória também cresceu significativamente. Cada dispositivo HBM4E suporta agora uma taxa de transferência de até 4,1 TB/s. Esse número contrasta com os 2,56 TB/s entregues pelo HBM4.
Em configurações típicas para aplicações de IA, um acelerador pode integrar 8 módulos HBM4E conectados simultaneamente. Nesse cenário, a capacidade total de acesso à memória ultrapassa os 32 TB/s.
Esse volume de dados é considerado necessário para processar as cargas de trabalho mais intensivas da próxima geração de modelos de inteligência artificial.
O controlador opera com latência reduzida, característica essencial para manter o fluxo contínuo de dados em sistemas de computação de alto desempenho (HPC).
A empresa desenvolveu o componente com base em mais de 100 projetos anteriores de HBM, um histórico que, segundo a fabricante, aumenta as chances de sucesso do silício na primeira tentativa de integração.
Integração em pacotes 2.5D e 3D para SoCs de IA
O IP do controlador HBM4E foi projetado para ser flexível na integração com outros componentes. Ele pode ser combinado com soluções PHY padrão de terceiros ou com tecnologias TSV (Through-Silicon Via).
Essa abordagem permite que os projetistas criem um subsistema de memória HBM4E completo dentro de um pacote 2.5D ou 3D. A integração ocorre como parte de um System-on-Chip (SoC) dedicado a IA ou em dies de base personalizados.
A flexibilidade na implementação busca facilitar a adoção da tecnologia por diferentes fabricantes de chips, cada um com suas próprias arquiteturas e requisitos de design.
A Rambus incluiu no novo controlador recursos avançados de confiabilidade. Esses mecanismos são importantes para garantir a estabilidade operacional em ambientes de processamento intensivo, nos quais falhas de memória podem comprometer longas execuções de treinamento ou inferência de modelos.

Leia mais
- Micron planeja fábrica de quase US$ 10 bilhões para HBM no Japão, reporta Nikkei
- NVIDIA e mais empresas estariam buscando integrar GPUs direto nas memórias HBM
- SK hynix diz que toda sua capacidade para DRAM, NAND e HBM em 2026 já está esgotada
Disponibilidade comercial para licenciamento
O controlador de memória HBM4E já está disponível para licenciamento. A companhia informou que clientes com programas de design em fase inicial podem iniciar negociações imediatamente para acesso antecipado à tecnologia.
Esse modelo de negócios é padrão no setor de propriedade intelectual de semicondutores, permitindo que os fabricantes de chips integrem o bloco em seus projetos antes da produção em massa.
A introdução do HBM4E ocorre em um momento de crescente demanda por largura de banda de memória. Os avanços em inteligência artificial generativa e simulações científicas complexas exigem que os dados sejam movimentados entre processadores e memória com velocidade cada vez maior.
Para finalizar, ressaltamos que o novo padrão HBM4E surge como uma resposta a essa necessidade, elevando o teto de desempenho para futuras gerações de aceleradores.
E aí? O que achou da novidade? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Adrenaline!
Fonte: WCCFtech


