O custo da IA já passou da folha salarial dentro da própria NVIDIA, segundo um vice-presidente da companhia.
Em entrevista à Axios publicada em 26 de abril de 2026, Bryan Catanzaro, VP de Applied Deep Learning da empresa, declarou que para a equipe que ele lidera o gasto com computação é maior que o pago aos funcionários humanos.
A frase ganhou tração porque vem da fabricante das GPUs que sustentam praticamente toda a infraestrutura global de inteligência artificial. Quem vende as ferramentas admite que rodar modelos consome mais recursos do que manter o time que os desenvolve.
Compute supera salários, diz vice-presidente da NVIDIA
Catanzaro lidera uma das equipes mais intensivas em GPUs dentro da NVIDIA. O grupo trabalha em pesquisa de modelos de IA, pipelines de inferência e tecnologias como o DLSS voltado a placas GeForce RTX, todas com uso pesado de aceleradores Hopper e Blackwell.
“Para meu time, o custo de compute está muito além do custo dos funcionários”
Bryan Catanzaro, vice-presidente de Applied Deep Learning da NVIDIA, em entrevista à Axios
A declaração do executivo não especifica se a comparação é total agregada ou em base por engenheiro. Mas o ponto técnico é interessante: treinar e iterar modelos exige clusters de GPUs operando 24 horas por dia, cada um com consumo elétrico, refrigeração e infraestrutura associada que escalam com o tamanho do experimento.
Uma análise da Fortune publicada após a entrevista lembra que pesquisa do MIT em 2024 já apontava na mesma direção.
O estudo concluiu que muitas tarefas automatizáveis por IA generativa ainda saíam mais caras quando computadas com o custo total de compute, manutenção e iteração de prompts do que pagar um humano para fazer o mesmo trabalho.
Uber esgotou orçamento de IA de 2026 em quatro meses
O fenômeno não está restrito à NVIDIA. O CTO do Uber, Praveen Neppalli Naga, confirmou ao The Information que a empresa queimou todo o orçamento anual de IA de 2026 em apenas quatro meses, antes do fim de abril.

O motivo foi o Claude Code, ferramenta de codificação assistida por IA da Anthropic, distribuída a partir de dezembro de 2025 para os 5.000 engenheiros do Uber. Adoção saltou de 32% para 84% do quadro em poucos meses, e cada engenheiro passou a gerar entre US$ 500 e US$ 2.000 por mês em consumo de tokens, equivalente a algo entre R$ 2.475 e R$ 9.900 pela cotação atual de R$ 4,95 por dólar (sem incluir tributos brasileiros).
O Uber gastou aproximadamente US$ 3,4 bilhões em pesquisa e desenvolvimento em 2025, cerca de R$ 16,8 bilhões pela conversão atual. O CTO afirmou estar “de volta à prancheta” para tentar conter o gasto sem perder a produtividade que os engenheiros relataram com a ferramenta.
Tabela com a evolução do consumo de IA no Uber:
| Indicador | Dezembro 2025 | Abril 2026 |
|---|---|---|
| Engenheiros usando Claude Code | 32% | 84% |
| Custo médio por engenheiro/mês | Não informado | US$ 500 a US$ 2.000 |
| Status do orçamento de IA 2026 | Em andamento | Esgotado |
Gartner projeta US$ 6,31 trilhões em gastos globais de TI em 2026
O movimento agregado dá a dimensão do problema, o forecast da Gartner divulgado em 22 de abril de 2026 prevê que os gastos globais com TI atinjam US$ 6,31 trilhões neste ano, alta de 13,5% sobre 2025. Convertendo pela cotação comercial atual, isso significa cerca de R$ 31,2 trilhões, sem incluir impostos e taxas locais.
A categoria de Data Center Systems é a que mais cresce. A previsão é de US$ 788 bilhões em 2026, alta de 55,8% sobre o ano anterior, segundo o estudo conduzido por John-David Lovelock, vice-presidente analista distinguido da Gartner.
Em reais, são cerca de R$ 3,9 trilhões só em servidores, racks, refrigeração e equipamentos correlatos.
| Categoria | Gasto 2025 (US$ bilhões) | Gasto 2026 (US$ bilhões) | Crescimento |
|---|---|---|---|
| Data Center Systems | 506 | 788 | 55,8% |
| Devices | 792 | 856 | 8,2% |
| Software | 1.254 | 1.444 | 15,1% |
| IT Services | 1.716 | 1.870 | 9,0% |
| Communications Services | 1.296 | 1.359 | 4,8% |
| Total Global | 5.564 | 6.317 | 13,5% |
A Gartner aponta que software de IA generativa deve mais que dobrar o gasto comparado a 2025, e que a memória avançada (DRAM, HBM) puxa preços de devices para cima, repercutindo nas planilhas dos consumidores.
Jensen Huang defende discurso de empregos preservados
Em paralelo às admissões de custo, o CEO da NVIDIA, Jensen Huang, mantém o tom otimista sobre o impacto da IA no mercado de trabalho.
Em palestra no Milken Institute Global Conference em 5 de maio, ele afirmou que a IA “cria empregos” e classificou as previsões de desemprego em massa como narrativas de ficção científica que prejudicam a adoção.
Huang reconheceu que profissões mudarão, mas argumentou que automatizar uma tarefa não equivale a eliminar uma função inteira.
A NVIDIA tem reforçado que a expansão da indústria de tecnologia ligada a IA gera demanda por eletricistas, encanadores e operários para erguer data centers, com salários puxados para cima pela escassez.
A declaração do CEO contrasta com dados que ele mesmo cita. Pesquisa do Fórum Econômico Mundial divulgada em janeiro mostrou que 41% dos empregadores planejam reduzir o quadro até 2030 por automação. Relatório recente da Universidade de Stanford apontou queda de 13% nas vagas de TI nos últimos três anos, correlacionada ao avanço da automação.
Cobrança por token vira alvo das diretorias financeiras
A admissão de Catanzaro mexe com algo que os CFOs já vinham percebendo nas planilhas: o modelo de cobrança por token dos provedores de IA torna cada requisição uma despesa operacional recorrente, fora dos padrões previsíveis de licenciamento de software tradicional.
A diferença é estrutural, por certo. Software por licença tem custo fixo por usuário ou por instância. Inferência de IA cobra por uso, e o uso cresce na medida em que mais equipes adotam a ferramenta. Empresas como Uber descobriram que a previsão orçamentária baseada em pilotos pequenos não escala quando o produto vira ferramenta diária de toda a engenharia.
A discussão também atinge a opção de rodar modelos localmente; companhias com volume alto de uso passaram a avaliar modelos de pesos abertos rodando em hardware próprio, com custo previsível atrelado a depreciação e energia, em vez de cobrança por token.
A própria NVIDIA se beneficia desse caminho, já que as GPUs vendidas para inferência on-premises geram receita recorrente para a empresa. Para clientes corporativos, o cálculo de construir versus alugar voltou ao centro das discussões financeiras com força que não existia há dois anos.
Fonte(s): Axios, Gartner, Fortune e The Information