A IA agentiva exige uma nova camada de armazenamento e a NVIDIA acaba de apresentar sua resposta para esse gargalo. Anunciado durante a GTC 2026, em San Jose, o NVIDIA BlueField-4 STX é uma arquitetura de referência modular desenvolvida para permitir que empresas, provedores de nuvem e laboratórios de IA implantem infraestrutura de armazenamento acelerada, capaz de sustentar o raciocínio de contexto prolongado exigido por agentes de IA modernos.
A novidade chega diante do crescimento dos modelos de linguagem e dos sistemas autônomos, em que é possível observar os limites atuais dos Data Centers tradicionais, que são projetados para armazenamento de uso geral, mas despreparados para a latência e o volume de contexto que a IA agentiva demanda.
O problema que o STX resolve
Sistemas de IA agentiva operam em múltiplas etapas, ferramentas e sessões. Para manter coerência e velocidade ao longo dessas interações, eles precisam de acesso em tempo real a dados e a uma memória de trabalho contextual robusta.
À medida que a janela de contexto cresce, os caminhos de dados tradicionais tornam-se gargalos: a inferência desacelera e a utilização das GPUs cai
O ponto crítico está no chamado KV cache (key-value cache), a estrutura de dados usada pelos grandes modelos de linguagem para armazenar vetores gerados durante o processamento de cada prompt.
Nos sistemas convencionais, recuperar esse cache exige que os dados passem pela CPU e pelo sistema operacional do servidor, um trajeto que consome tempo e recursos. O STX foi projetado para eliminar essa ineficiência.

Como a arquitetura funciona
O BlueField-4 STX combina em uma única arquitetura modular os seguintes componentes: o novo processador NVIDIA BlueField-4 otimizado para armazenamento, que une a CPU NVIDIA Vera ao SuperNIC ConnectX-9; as switches Ethernet NVIDIA Spectrum-X; o software NVIDIA DOCA; e o NVIDIA AI Enterprise.
O Spectrum-X e o ConnectX-9 suportam uma tecnologia chamada RDMA (Remote Direct Memory Access), que permite ao servidor buscar dados no armazenamento sem passar pela CPU ou pelo sistema operacional, acelerando significativamente o fluxo de tráfego entre GPUs e o armazenamento em flash.
A arquitetura inteira é acelerada pela plataforma NVIDIA Vera Rubin, e representa a extensão da estratégia da empresa para além do processamento e da rede, chegando agora à camada de armazenamento.
A plataforma CMX: memória de contexto em escala de rack
A primeira implementação em escala de rack do STX é a plataforma NVIDIA CMX (Context Memory Storage).
Desenvolvida para ampliar a memória das GPUs com uma camada de contexto de alto desempenho, o CMX armazena o KV cache dos modelos em flash de alta velocidade, mantendo-o acessível sem a necessidade de rodadas de ida e volta ao armazenamento convencional.
Na prática, o CMX atua como uma ponte entre a memória das GPUs e o armazenamento tradicional, especificamente otimizada para os padrões de acesso de sistemas de inferência e agentes escaláveis.
Os números apresentados pela NVIDIA apontam para até 5 vezes mais taxa de transferência de tokens em comparação com arquiteturas de armazenamento convencionais, eficiência energética 4 vezes superior frente às arquiteturas tradicionais baseadas em CPU para armazenamento de alto desempenho, e capacidade de processar o dobro de páginas por segundo para dados de IA corporativos.
Os sistemas de IA que processam grandes volumes de contexto e aprendem continuamente exigem uma nova classe de armazenamento. O NVIDIA STX reinventa a pilha de armazenamento, oferecendo uma base modular para uma infraestrutura nativa de IA que mantém as fábricas de IA operando com desempenho máximo
Jensen Huang, fundador e CEO da NVIDIA

Ecossistema amplo de parceiros
O STX não é um produto que a NVIDIA comercializa diretamente: é uma arquitetura de referência distribuída ao ecossistema de parceiros, que a utilizam para desenvolver seus próprios sistemas de armazenamento voltados à IA.
Entre os provedores de armazenamento co-desenvolvendo infraestrutura baseada no STX estão Cloudian, DDN, Dell Technologies, Everpure (anteriormente Pure Storage), Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data e WEKA. Os parceiros de fabricação responsáveis por construir os sistemas físicos incluem AIC, Supermicro e Quanta Cloud Technology (QCT).
No lado dos early adopters (provedores de nuvem e laboratórios de IA que planejam adotar o STX especificamente para armazenamento de memória de contexto), estão CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure (OCI) e Vultr.
Vale destacar a posição da IBM no anúncio: a empresa aparece tanto como parceira de armazenamento quanto como usuária da arquitetura.
A NVIDIA confirmou separadamente que selecionou o IBM Storage Scale System 6000 como base de armazenamento de alto desempenho para sua própria infraestrutura de análise nativa em GPU.
Disponibilidade e o que esperar
As plataformas baseadas em STX estarão disponíveis por meio dos parceiros no segundo semestre de 2026. A NVIDIA não especificou preços nem configurações exatas e os detalhes finais de cada solução dependerão de cada fabricante e fornecedor de armazenamento envolvido.
Vale uma ressalva técnica importante: os ganhos de desempenho divulgados pela empresa — 5x em tokens, 4x em eficiência energética e 2x na ingestão de dados — são medidos em relação a arquiteturas tradicionais baseadas em CPU para armazenamento de alto desempenho.
Portanto, a empresa não especificou publicamente a configuração exata usada como linha de base nessas comparações, o que torna prudente aguardar validações independentes antes de tomar decisões de infraestrutura com base nesses números.
Leia também:
- NVIDIA anuncia DLSS 5 com luzes e materiais mais realistas
- MSI diz que NVIDIA está fornecendo cerca de 20% menos de GPUs do que o mercado precisa
- Futuras GPUs da NVIDIA podem revolucionar o Path Tracing com avanço de até 1 milhão de vezes
STX muda o papel do armazenamento nas fábricas de IA
Por décadas, o armazenamento foi tratado como um componente secundário na cadeia de infraestrutura, algo que o setor dimensionava depois de definir o processamento.
O BlueField-4 STX vem como uma mudança de postura: à medida que modelos de IA passam a operar com janelas de contexto cada vez maiores e fluxos de raciocínio contínuos, o armazenamento precisa ser co-projetado junto com a computação, não adicionado depois.
Com mais de 20 parceiros relevantes já alinhados ao lançamento, a NVIDIA está, na prática, tentando definir o padrão do que será a camada de armazenamento nas próximas gerações de fábricas de IA antes mesmo de os sistemas chegarem ao mercado.
Fonte(s): NVIDIA