NVIDIA gasta mais com IA do que com funcionários, revela executivo da empresa

O custo da IA já passou da folha salarial dentro da própria NVIDIA, segundo um vice-presidente da companhia.

Em entrevista à Axios publicada em 26 de abril de 2026, Bryan Catanzaro, VP de Applied Deep Learning da empresa, declarou que para a equipe que ele lidera o gasto com computação é maior que o pago aos funcionários humanos.

A frase ganhou tração porque vem da fabricante das GPUs que sustentam praticamente toda a infraestrutura global de inteligência artificial. Quem vende as ferramentas admite que rodar modelos consome mais recursos do que manter o time que os desenvolve.

Compute supera salários, diz vice-presidente da NVIDIA

Catanzaro lidera uma das equipes mais intensivas em GPUs dentro da NVIDIA. O grupo trabalha em pesquisa de modelos de IA, pipelines de inferência e tecnologias como o DLSS voltado a placas GeForce RTX, todas com uso pesado de aceleradores Hopper e Blackwell.

Bryan Catanzaro, VP de Applied Deep Learning da NVIDIA – Reprodução/UC Berkeley EECS

“Para meu time, o custo de compute está muito além do custo dos funcionários”

Bryan Catanzaro, vice-presidente de Applied Deep Learning da NVIDIA, em entrevista à Axios

A declaração do executivo não especifica se a comparação é total agregada ou em base por engenheiro. Mas o ponto técnico é interessante: treinar e iterar modelos exige clusters de GPUs operando 24 horas por dia, cada um com consumo elétrico, refrigeração e infraestrutura associada que escalam com o tamanho do experimento.

Uma análise da Fortune publicada após a entrevista lembra que pesquisa do MIT em 2024 já apontava na mesma direção.

O estudo concluiu que muitas tarefas automatizáveis por IA generativa ainda saíam mais caras quando computadas com o custo total de compute, manutenção e iteração de prompts do que pagar um humano para fazer o mesmo trabalho.

Uber esgotou orçamento de IA de 2026 em quatro meses

O fenômeno não está restrito à NVIDIA. O CTO do Uber, Praveen Neppalli Naga, confirmou ao The Information que a empresa queimou todo o orçamento anual de IA de 2026 em apenas quatro meses, antes do fim de abril.

Praveen Neppalli Naga, CTO do Uber – Reprodução/The Information

O motivo foi o Claude Code, ferramenta de codificação assistida por IA da Anthropic, distribuída a partir de dezembro de 2025 para os 5.000 engenheiros do Uber. Adoção saltou de 32% para 84% do quadro em poucos meses, e cada engenheiro passou a gerar entre US$ 500 e US$ 2.000 por mês em consumo de tokens, equivalente a algo entre R$ 2.475 e R$ 9.900 pela cotação atual de R$ 4,95 por dólar (sem incluir tributos brasileiros).

O Uber gastou aproximadamente US$ 3,4 bilhões em pesquisa e desenvolvimento em 2025, cerca de R$ 16,8 bilhões pela conversão atual. O CTO afirmou estar “de volta à prancheta” para tentar conter o gasto sem perder a produtividade que os engenheiros relataram com a ferramenta.

Tabela com a evolução do consumo de IA no Uber:

Indicador Dezembro 2025 Abril 2026
Engenheiros usando Claude Code 32% 84%
Custo médio por engenheiro/mês Não informado US$ 500 a US$ 2.000
Status do orçamento de IA 2026 Em andamento Esgotado

Gartner projeta US$ 6,31 trilhões em gastos globais de TI em 2026

O movimento agregado dá a dimensão do problema, o forecast da Gartner divulgado em 22 de abril de 2026 prevê que os gastos globais com TI atinjam US$ 6,31 trilhões neste ano, alta de 13,5% sobre 2025. Convertendo pela cotação comercial atual, isso significa cerca de R$ 31,2 trilhões, sem incluir impostos e taxas locais.

A categoria de Data Center Systems é a que mais cresce. A previsão é de US$ 788 bilhões em 2026, alta de 55,8% sobre o ano anterior, segundo o estudo conduzido por John-David Lovelock, vice-presidente analista distinguido da Gartner.

Em reais, são cerca de R$ 3,9 trilhões só em servidores, racks, refrigeração e equipamentos correlatos.

Categoria Gasto 2025 (US$ bilhões) Gasto 2026 (US$ bilhões) Crescimento
Data Center Systems 506 788 55,8%
Devices 792 856 8,2%
Software 1.254 1.444 15,1%
IT Services 1.716 1.870 9,0%
Communications Services 1.296 1.359 4,8%
Total Global 5.564 6.317 13,5%

A Gartner aponta que software de IA generativa deve mais que dobrar o gasto comparado a 2025, e que a memória avançada (DRAM, HBM) puxa preços de devices para cima, repercutindo nas planilhas dos consumidores.

Jensen Huang defende discurso de empregos preservados

Em paralelo às admissões de custo, o CEO da NVIDIA, Jensen Huang, mantém o tom otimista sobre o impacto da IA no mercado de trabalho.

Em palestra no Milken Institute Global Conference em 5 de maio, ele afirmou que a IA “cria empregos” e classificou as previsões de desemprego em massa como narrativas de ficção científica que prejudicam a adoção.

Huang reconheceu que profissões mudarão, mas argumentou que automatizar uma tarefa não equivale a eliminar uma função inteira.

A NVIDIA tem reforçado que a expansão da indústria de tecnologia ligada a IA gera demanda por eletricistas, encanadores e operários para erguer data centers, com salários puxados para cima pela escassez.

A declaração do CEO contrasta com dados que ele mesmo cita. Pesquisa do Fórum Econômico Mundial divulgada em janeiro mostrou que 41% dos empregadores planejam reduzir o quadro até 2030 por automação. Relatório recente da Universidade de Stanford apontou queda de 13% nas vagas de TI nos últimos três anos, correlacionada ao avanço da automação.

Cobrança por token vira alvo das diretorias financeiras

A admissão de Catanzaro mexe com algo que os CFOs já vinham percebendo nas planilhas: o modelo de cobrança por token dos provedores de IA torna cada requisição uma despesa operacional recorrente, fora dos padrões previsíveis de licenciamento de software tradicional.

A diferença é estrutural, por certo. Software por licença tem custo fixo por usuário ou por instância. Inferência de IA cobra por uso, e o uso cresce na medida em que mais equipes adotam a ferramenta. Empresas como Uber descobriram que a previsão orçamentária baseada em pilotos pequenos não escala quando o produto vira ferramenta diária de toda a engenharia.

A discussão também atinge a opção de rodar modelos localmente; companhias com volume alto de uso passaram a avaliar modelos de pesos abertos rodando em hardware próprio, com custo previsível atrelado a depreciação e energia, em vez de cobrança por token.

A própria NVIDIA se beneficia desse caminho, já que as GPUs vendidas para inferência on-premises geram receita recorrente para a empresa. Para clientes corporativos, o cálculo de construir versus alugar voltou ao centro das discussões financeiras com força que não existia há dois anos.

Fonte(s): Axios, Gartner, Fortune e The Information

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima