NVIDIA revela plataforma Kyber com até 576 GPUs Rubin Ultra para impulsionar a IA até 2027

A NVIDIA divulgou ontem seu ambicioso projeto Kyber, uma arquitetura de rack-scale que, até 2027, deverá agrupar até 576 GPUs Rubin Ultra em uma única plataforma.

A iniciativa busca transformar a densidade de processamento para aplicações de inteligência artificial em escala massiva. Assim, a nova geração substituirá a linha Oberon e exigirá repensar energia, resfriamento e conectividade nos Data Centers.

Salto estrutural no design de racks

Com Kyber, a empresa propõe uma reconfiguração física dos racks: os módulos de computação serão orientados verticalmente, como lâminas (“blades”), ao invés das bandejas horizontais tradicionais. A disposição favorece maior compactação e eficiência de interconectividade.

Além disso, a NVIDIA deverá adotar um midplane no lugar de cabos modulares para conectar as GPUs aos switches NVLink, eliminando o atrito causado pela fiação em racks densos.

Potência e energia: o desafio de 800 VDC

Para alimentar tanta densidade de cálculo, a NVIDIA planeja migrar da distribuição convencional em AC para um modelo de 800 VDC direto da fonte até o rack. Isso permite transmitir mais energia com menos perdas e reduzir o uso de cobre nas instalações.

No GTC 2025, ela mostrou um rack-sidecar baseado em 800 V para suportar uma instalação ilustrativa com 576 GPUs Rubin Ultra. O modelo reduz conversões intermediárias (AC/DC múltiplas etapas) e simplifica a infraestrutura elétrica, além de aumentar eficiência e confiabilidade.

Divulgação/NVIDIA

Consumo estimado: até 600 kW por rack

O consumo energético projetado para um rack Kyber com 576 GPUs chegou a cerca de 600 kW. Para lidar com isso, a arquitetura inclui um sidecar dedicado a gerenciar energia e resfriamento — um “rack auxiliar” que fica ao lado do rack principal.

Durante o evento, Jensen Huang afirmou:

Cada rack é 600 kW, 2,5 milhões de peças, e obviamente uma grande quantidade de GPUs… Essa transição vai levar anos de planejamento

Ou seja, o desafio é de engenharia e logística para Data centers existentes.

Ofertas do dia:

Especificações projetadas e desempenho esperado

Estima-se também que o rack disponha de 365 TB de memória rápida, somando HBM e LPDDR, além de 147 TB de HBM e 218 TB de LPDDR, segundo projeções feitas sobre a arquitetura Vera-Rubin.

Para interconexão, os módulos usarão NVSwitch de nova geração (NVLink 7) e tráfego interno em cobre, mesmo com o midplane, mantendo uma malha com alta largura de banda.

Ainda segundo levantamentos da indústria, o ganho frente aos racks GB300/Blackwell atuais poderia atingir 14× em performance por rack.

Especificações do Kyber (projeção 2027)

Os números abaixo são oficiais ou reportados por fontes técnicas de alta confiança, mas podem mudar até o lançamento comercial:

ItemDetalhe
Geração / janelaKyber, sucessora de Oberon, com adoção plena prevista para o segundo semestre de 2027.
Configuração máxima por rackNVL576, com até 576 GPUs Rubin Ultra por rack.
Organização físicaBlades verticais “como livros na estante”, até 18 blades de computação por chassi e switch blades NVLink integrados na traseira via midplane sem cabos.
Pods por rack (reportado)Quatro pods por rack, com 18 blades por pod e até 8 GPUs por blade.
Interconexão internaNVLink 7 com cerca de 144 NVSwitch por rack, oferecendo largura de banda próxima de 7,2 TB/s por porta.
Rede externaAté 576 adaptadores ConnectX-9 (1,6 Tb/s cada) e cerca de 72 DPUs BlueField por rack.
Memória agregada (projetada)Aproximadamente 150 TB de HBM, somando mais de 2.000 stacks e largura de banda total na casa de petabytes por segundo.
Desempenho estimadoAté 15 exaflops em FP4 (inferência) e 5 exaflops em FP8 (treinamento), com desempenho até 14 vezes maior por rack em relação ao NVL72 Blackwell.
Energia por rackEm torno de 600 kW por rack.
Distribuição elétricaSistema de 800 VDC da fonte até o rack, com sidecar dedicado para alimentação e redução de perdas e cobre.
Resfriamento100% líquido, sem ventoinhas internas.
Midplane / cabeamentoSubstituição do antigo sistema de cabos modulares por midplane central, otimizando densidade e manutenção.
Papel do OberonOberon segue como base dos sistemas GB200 e GB300 (NVL72), enquanto Kyber assume com Rubin e Rubin Ultra.
StatusEm desenvolvimento, com especificações sujeitas a ajustes até o lançamento comercial.

Compromissos de infraestrutura (resfriamento, espaço e rede)

Para suportar tanta potência embarcada, o resfriamento será totalmente líquido, sem ventiladores dentro do rack.

O projeto exige uma reorganização do espaço nos Data Centers. Há previsão de racks de suporte exclusivos para poder, refrigeração e conectividade, para que o rack Kyber se concentre somente em computação.

Divulgação/NVIDIA

Também há conversas entre a NVIDIA e fornecedores de componentes elétricos, como Infineon, STMicroelectronics, Renesas, Eaton, Vertiv e outros, para viabilizar os sistemas de alta tensão e equipamentos compatíveis.

Em termos de rede, cada rack poderá incorporar até 576 adaptadores ConnectX-9 e switches de alta capacidade para trafegar dados externos e internos.

Linha temporal e o contexto do roadmap

A NVIDIA espera lançar os primeiros componentes da geração Vera / Rubin em 2026, com o Rubin Ultra + arquitetura Kyber previstos para o segundo semestre de 2027.

O caminho é incremental: a solução NVL144 deverá estrear anteriormente, servindo como plataforma de transição e validação do ecossistema técnico.

Há especulações de uma variação futura ainda mais densa, como um rack NVL1,152 (duplica a contagem de dies) no horizonte.

Linha do tempo da arquitetura NVIDIA (2024–2028)

AnoGeração / ArquiteturaPlataforma de RackPrincipais GPUs / ConfiguraçõesCaracterísticas e Marcos Técnicos
2024Blackwell (GB200 / GB300)OberonGB200 NVL72 / GB300 NVL72Base da atual geração; rack horizontal tradicional; 415–480 VAC; início da transição para IA generativa em larga escala.
2025Vera (pré-Rubin)Oberon (transição)NVL144 (estimado)Iteração intermediária; valida novas topologias NVLink e midplane; ainda compatível com racks Oberon.
2026Rubin (primeira geração)Kyber (piloto)NVL288 (projeção)Início da adoção do design vertical de blades; primeiros testes com 800 VDC; resfriamento líquido integral.
2º semestre de 2027Rubin Ultra (Vera-Rubin combinada)Kyber (produção)NVL576Estrutura final com 576 GPUs; até 600 kW por rack; 15 exaflops FP4; 5 exaflops FP8; NVLink 7; midplane interno; sidecar de energia.
2028 (projeção)Próxima geração (pós-Rubin)Kyber 2 ou “Dynamo” (nome em estudo)NVL1152 (especulado)Densidade dobrada; foco em IA generativa de raciocínio (“reasoning AI”); integração completa com redes ópticas internas.

Impactos e desafios a considerar

  • A densidade de energia exigida (600 kW por rack) já está além dos padrões atuais de muitos Data Centers. Muitos não têm infraestrutura elétrica ou refrigeração para sustentar isso.
  • A adoção de 800 VDC exige mudanças no planejamento elétrico, normas e cadeia de suprimentos.
  • A migração para soluções líquidas e arquitetura blade impõe revisão em manutenção, trocas e gerenciamento de falhas.
  • A latência interna, integridade de sinal e escalabilidade da malha NVLink serão decisivas para que o ganho teórico se materialize.

Por outro lado, se concretizado, o Kyber com 576 Rubin Ultra pode redefinir o patamar de densidade e eficiência para operações de IA em hiperescala, oferecendo salto expressivo no poder computacional por metro quadrado.

Leia também:

Virada para a era dos “AI factories”

Com Kyber, a NVIDIA sinaliza que o futuro da infraestrutura de IA passa por como organizar densidade, energia, resfriamento e conectividade nos Data Centers. Como disse Ian Buck, vice de infraestrutura, em evento recente:

Já não estamos falando de quantidade de chips. Estamos falando na escala de Data Centers inteiros

A arquitetura Kyber permite intensificar a contagem de GPUs por rack e, ao mesmo tempo, redefinir os limites de densidade energética e térmica. Se os desafios forem vencidos, data centers poderão adotar “fazendas de IA” com densidade inédita.

Será esse o momento em que o hardware deixa de ser apenas acelerador e passa a ser parte da malha arquitetural fundamental da era da inteligência artificial em escala ampla.

Fonte: NVIDIA

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima