NVIDIA lança a arquitetura de armazenamento BlueField-4 STX

A IA agentiva exige uma nova camada de armazenamento e a NVIDIA acaba de apresentar sua resposta para esse gargalo. Anunciado durante a GTC 2026, em San Jose, o NVIDIA BlueField-4 STX é uma arquitetura de referência modular desenvolvida para permitir que empresas, provedores de nuvem e laboratórios de IA implantem infraestrutura de armazenamento acelerada, capaz de sustentar o raciocínio de contexto prolongado exigido por agentes de IA modernos.

A novidade chega diante do crescimento dos modelos de linguagem e dos sistemas autônomos, em que é possível observar os limites atuais dos Data Centers tradicionais, que são projetados para armazenamento de uso geral, mas despreparados para a latência e o volume de contexto que a IA agentiva demanda.

Divulgação/NVIDIA

O problema que o STX resolve

Sistemas de IA agentiva operam em múltiplas etapas, ferramentas e sessões. Para manter coerência e velocidade ao longo dessas interações, eles precisam de acesso em tempo real a dados e a uma memória de trabalho contextual robusta.

À medida que a janela de contexto cresce, os caminhos de dados tradicionais tornam-se gargalos: a inferência desacelera e a utilização das GPUs cai

O ponto crítico está no chamado KV cache (key-value cache), a estrutura de dados usada pelos grandes modelos de linguagem para armazenar vetores gerados durante o processamento de cada prompt.

Nos sistemas convencionais, recuperar esse cache exige que os dados passem pela CPU e pelo sistema operacional do servidor, um trajeto que consome tempo e recursos. O STX foi projetado para eliminar essa ineficiência.

Divulgação/NVIDIA

Como a arquitetura funciona

O BlueField-4 STX combina em uma única arquitetura modular os seguintes componentes: o novo processador NVIDIA BlueField-4 otimizado para armazenamento, que une a CPU NVIDIA Vera ao SuperNIC ConnectX-9; as switches Ethernet NVIDIA Spectrum-X; o software NVIDIA DOCA; e o NVIDIA AI Enterprise.

O Spectrum-X e o ConnectX-9 suportam uma tecnologia chamada RDMA (Remote Direct Memory Access), que permite ao servidor buscar dados no armazenamento sem passar pela CPU ou pelo sistema operacional, acelerando significativamente o fluxo de tráfego entre GPUs e o armazenamento em flash.

A arquitetura inteira é acelerada pela plataforma NVIDIA Vera Rubin, e representa a extensão da estratégia da empresa para além do processamento e da rede, chegando agora à camada de armazenamento.

A plataforma CMX: memória de contexto em escala de rack

A primeira implementação em escala de rack do STX é a plataforma NVIDIA CMX (Context Memory Storage).

Desenvolvida para ampliar a memória das GPUs com uma camada de contexto de alto desempenho, o CMX armazena o KV cache dos modelos em flash de alta velocidade, mantendo-o acessível sem a necessidade de rodadas de ida e volta ao armazenamento convencional.

Na prática, o CMX atua como uma ponte entre a memória das GPUs e o armazenamento tradicional, especificamente otimizada para os padrões de acesso de sistemas de inferência e agentes escaláveis.

Os números apresentados pela NVIDIA apontam para até 5 vezes mais taxa de transferência de tokens em comparação com arquiteturas de armazenamento convencionais, eficiência energética 4 vezes superior frente às arquiteturas tradicionais baseadas em CPU para armazenamento de alto desempenho, e capacidade de processar o dobro de páginas por segundo para dados de IA corporativos.

Os sistemas de IA que processam grandes volumes de contexto e aprendem continuamente exigem uma nova classe de armazenamento. O NVIDIA STX reinventa a pilha de armazenamento, oferecendo uma base modular para uma infraestrutura nativa de IA que mantém as fábricas de IA operando com desempenho máximo

Jensen Huang, fundador e CEO da NVIDIA

Divulgação/NVIDIA

Ecossistema amplo de parceiros

O STX não é um produto que a NVIDIA comercializa diretamente: é uma arquitetura de referência distribuída ao ecossistema de parceiros, que a utilizam para desenvolver seus próprios sistemas de armazenamento voltados à IA.

Entre os provedores de armazenamento co-desenvolvendo infraestrutura baseada no STX estão Cloudian, DDN, Dell Technologies, Everpure (anteriormente Pure Storage), Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data e WEKA. Os parceiros de fabricação responsáveis por construir os sistemas físicos incluem AIC, Supermicro e Quanta Cloud Technology (QCT).

No lado dos early adopters (provedores de nuvem e laboratórios de IA que planejam adotar o STX especificamente para armazenamento de memória de contexto), estão CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure (OCI) e Vultr.

Vale destacar a posição da IBM no anúncio: a empresa aparece tanto como parceira de armazenamento quanto como usuária da arquitetura.

A NVIDIA confirmou separadamente que selecionou o IBM Storage Scale System 6000 como base de armazenamento de alto desempenho para sua própria infraestrutura de análise nativa em GPU.

Disponibilidade e o que esperar

As plataformas baseadas em STX estarão disponíveis por meio dos parceiros no segundo semestre de 2026. A NVIDIA não especificou preços nem configurações exatas e os detalhes finais de cada solução dependerão de cada fabricante e fornecedor de armazenamento envolvido.

Vale uma ressalva técnica importante: os ganhos de desempenho divulgados pela empresa — 5x em tokens, 4x em eficiência energética e 2x na ingestão de dados — são medidos em relação a arquiteturas tradicionais baseadas em CPU para armazenamento de alto desempenho.

Portanto, a empresa não especificou publicamente a configuração exata usada como linha de base nessas comparações, o que torna prudente aguardar validações independentes antes de tomar decisões de infraestrutura com base nesses números.

Leia também:

STX muda o papel do armazenamento nas fábricas de IA

Por décadas, o armazenamento foi tratado como um componente secundário na cadeia de infraestrutura, algo que o setor dimensionava depois de definir o processamento.

O BlueField-4 STX vem como uma mudança de postura: à medida que modelos de IA passam a operar com janelas de contexto cada vez maiores e fluxos de raciocínio contínuos, o armazenamento precisa ser co-projetado junto com a computação, não adicionado depois.

Com mais de 20 parceiros relevantes já alinhados ao lançamento, a NVIDIA está, na prática, tentando definir o padrão do que será a camada de armazenamento nas próximas gerações de fábricas de IA antes mesmo de os sistemas chegarem ao mercado.

Fonte(s): NVIDIA

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima