De olho no futuro: AMD e Qualcomm miram memória SOCAMM para produtos de IA de próxima geração, seguindo a NVIDIA.
A corrida por hardware de inteligência artificial (IA) mais eficiente ganha um novo capítulo. Gigantes do setor, como AMD e Qualcomm, estão analisando a integração do padrão SOCAMM em seus futuros produtos.
O movimento surge como uma resposta a um desafio técnico crescente: aplicações de IA agêntica estão pressionando os sistemas atuais, fazendo da capacidade de memória um ponto crítico de gargalo de desempenho.
| O que é | Padrão de memória derivado da LPDDR, com módulos não soldados (atualizáveis). |
| Objetivo principal | Atuar com memória HBM para resolver gargalos em aplicações de IA agêntica. |
| Empresas interessadas | NVIDIA (pioneira), AMD e Qualcomm (avaliando adoção). |
| Vantagem chave | Permite terabytes de memória por CPU, mantendo milhões de tokens ativos para IA. |
| Diferença da NVIDIA | AMD e Qualcomm estudam módulo com PMIC integrado para controle de energia mais eficiente. |
| Status atual | NVIDIA planeja o SOCAMM 2 para clusters Vera Rubin; concorrentes avaliam para próxima geração. |
O que é o padrão SOCAMM e por que ele interessa ao mercado
Inicialmente associado à NVIDIA, o SOCAMM é uma especificação de memória derivada da tecnologia LPDDR, comum em smartphones.
Sua principal diferença para opções como a HBM ou a LPDDR5X está na capacidade de atualização, pois seus módulos não são soldados na placa-mãe. Isso oferece flexibilidade e a possibilidade de atuar em conjunto com memórias HBM, gerenciando tarefas que demandam grandes volumes de dados.
Um relatório do veículo internacional Hankyung confirma o interesse de NVIDIA, Qualcomm e AMD em incluir módulos SOCAMM em próximas gerações de racks de IA. A adoção mais ampla do padrão pode elevar significativamente a utilização desse tipo de DRAM no setor.
Diferenças na abordagem entre AMD, Qualcomm e NVIDIA
Enquanto a NVIDIA foi pioneira, seus concorrentes estudam uma configuração diferenciada para os módulos. A proposta da AMD e da Qualcomm envolve um arranjo em formato quadrado, com dois chips de DRAM posicionados em fileiras separadas.
Esta arquitetura permite integrar o circuito regulador de energia (PMIC) diretamente no módulo de memória. A vantagem é um controle de voltagem mais preciso e eficaz, o que possibilita operar o SOCAMM em altas velocidades com estabilidade.
Uma consequência prática é a simplificação do projeto das placas-mãe, que não precisariam de circuitos de energia dedicados para essa função.
Leia mais
- Dell anuncia primeiro servidor de Inteligência Artificial fabricado no Brasil
- Em meio a demissões, Ubisoft intensifica aposta na inteligência artificial
- Mudança de poder: TSMC cogita fim do tratamento prioritário à Apple
AMD e Qualcomm miram memória SOCAMM para produtos de IA de próxima geração, seguindo a NVIDIA; conclusões
A expansão da IA agêntica cria uma nova demanda por memória de curto prazo e alta capacidade, complementar ao desempenho bruto da HBM. É aqui que o SOCAMM encontra sua vocação estratégica.
O padrão permite configurar sistemas com terabytes de memória por unidade de processamento central (CPU). Isso dá a um agente de IA a capacidade de manter milhões de tokens, ou elementos de contexto, ativos e acessíveis simultaneamente.
Apesar de ter uma taxa de transferência inferior à da HBM, o SOCAMM se posiciona como uma solução intermediária, com custo-benefício atrativo e maior eficiência energética.
A NVIDIA já tem planos de implementar uma versão posterior, o SOCAMM 2, em seus clusters de IA Vera Rubin.
Com a AMD e a Qualcomm também explorando ativamente a tecnologia, é provável que a próxima geração de sistemas de IA dessas empresas conte com o padrão de memória em um futuro próximo.
E aí? O que achou da novidade? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Adrenaline!
Fontes: Wccftech


