AMD e Qualcomm miram memória SOCAMM para produtos de IA de próxima geração, seguindo a NVIDIA

De olho no futuro: AMD e Qualcomm miram memória SOCAMM para produtos de IA de próxima geração, seguindo a NVIDIA.

A corrida por hardware de inteligência artificial (IA) mais eficiente ganha um novo capítulo. Gigantes do setor, como AMD e Qualcomm, estão analisando a integração do padrão SOCAMM em seus futuros produtos.

O movimento surge como uma resposta a um desafio técnico crescente: aplicações de IA agêntica estão pressionando os sistemas atuais, fazendo da capacidade de memória um ponto crítico de gargalo de desempenho.

O que éPadrão de memória derivado da LPDDR, com módulos não soldados (atualizáveis).
Objetivo principalAtuar com memória HBM para resolver gargalos em aplicações de IA agêntica.
Empresas interessadasNVIDIA (pioneira), AMD e Qualcomm (avaliando adoção).
Vantagem chavePermite terabytes de memória por CPU, mantendo milhões de tokens ativos para IA.
Diferença da NVIDIAAMD e Qualcomm estudam módulo com PMIC integrado para controle de energia mais eficiente.
Status atualNVIDIA planeja o SOCAMM 2 para clusters Vera Rubin; concorrentes avaliam para próxima geração.

O que é o padrão SOCAMM e por que ele interessa ao mercado

Inicialmente associado à NVIDIA, o SOCAMM é uma especificação de memória derivada da tecnologia LPDDR, comum em smartphones.

Sua principal diferença para opções como a HBM ou a LPDDR5X está na capacidade de atualização, pois seus módulos não são soldados na placa-mãe. Isso oferece flexibilidade e a possibilidade de atuar em conjunto com memórias HBM, gerenciando tarefas que demandam grandes volumes de dados.

Um relatório do veículo internacional Hankyung confirma o interesse de NVIDIA, Qualcomm e AMD em incluir módulos SOCAMM em próximas gerações de racks de IA. A adoção mais ampla do padrão pode elevar significativamente a utilização desse tipo de DRAM no setor.

Diferenças na abordagem entre AMD, Qualcomm e NVIDIA

Enquanto a NVIDIA foi pioneira, seus concorrentes estudam uma configuração diferenciada para os módulos. A proposta da AMD e da Qualcomm envolve um arranjo em formato quadrado, com dois chips de DRAM posicionados em fileiras separadas.

Esta arquitetura permite integrar o circuito regulador de energia (PMIC) diretamente no módulo de memória. A vantagem é um controle de voltagem mais preciso e eficaz, o que possibilita operar o SOCAMM em altas velocidades com estabilidade.

Uma consequência prática é a simplificação do projeto das placas-mãe, que não precisariam de circuitos de energia dedicados para essa função.

Leia mais

AMD e Qualcomm miram memória SOCAMM para produtos de IA de próxima geração, seguindo a NVIDIA; conclusões

A expansão da IA agêntica cria uma nova demanda por memória de curto prazo e alta capacidade, complementar ao desempenho bruto da HBM. É aqui que o SOCAMM encontra sua vocação estratégica.

O padrão permite configurar sistemas com terabytes de memória por unidade de processamento central (CPU). Isso dá a um agente de IA a capacidade de manter milhões de tokens, ou elementos de contexto, ativos e acessíveis simultaneamente.

Apesar de ter uma taxa de transferência inferior à da HBM, o SOCAMM se posiciona como uma solução intermediária, com custo-benefício atrativo e maior eficiência energética.

A NVIDIA já tem planos de implementar uma versão posterior, o SOCAMM 2, em seus clusters de IA Vera Rubin.

Com a AMD e a Qualcomm também explorando ativamente a tecnologia, é provável que a próxima geração de sistemas de IA dessas empresas conte com o padrão de memória em um futuro próximo.

E aí? O que achou da novidade? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Adrenaline!

Fontes: Wccftech

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima