A transição de processadores x86 para Arm em servidores de inteligência artificial (IA) deve acelerar na segunda metade de 2026, com a adoção de chips personalizados pelos principais provedores de nuvem.
Até 2030, pelo menos 90% dos servidores de IA com processadores customizados usarão arquitetura Arm, restando 10% para x86 e RISC-V, segundo projeção da consultoria Counterpoint Research.
O avanço dos chips Arm em servidores de IA
Atualmente, a maioria das CPUs que equipam servidores de IA ainda utiliza arquitetura x86, da AMD e da Intel. Esse padrão histórico se deve à dominância desses processadores em servidores de uso geral, o que levou os primeiros sistemas de IA a adotar modelos como Opteron e Xeon.
No entanto, empresas hyperscalers (hiperescaladoras) como Amazon Web Services (AWS), Google, Microsoft e Meta vêm desenvolvendo seus próprios processadores baseados em Arm.
A justificativa técnica é que CPUs customizadas, desenhadas para cargas intensivas de dados em IA, oferecem melhor relação entre custo, consumo de energia e desempenho.
Além disso, o caráter emergente (sendo tudo ainda muito novo) das aplicações de IA reduz a exigência de compatibilidade com o ecossistema x86.
Estratégias dos hiperescaladores
Cada provedor adotou uma abordagem própria na integração dos chips Arm. A AWS expandiu o uso de seus processadores Graviton em sistemas baseados na plataforma Trainium, mantendo configurações com x86 apenas para compatibilidade.
O Google, por sua vez, depende da CPU Axion Arm em sua infraestrutura de próxima geração para Unidades de Processamento de Tensor (TPUs). A Microsoft emparelhou sua CPU Azure Cobalt Arm com os aceleradores Maia desde o início da arquitetura, criando uma pilha vertical de IA.
Já o grupo Meta está prestes a começar a implantar as CPUs de inteligência artificial geral (AGI) desenvolvidas pela própria Arm.
Cronograma e projeções
De acordo com Neil Shah, vice-presidente de pesquisa da Counterpoint Research, a migração do x86 para o Arm não ocorre em um sentido único. Ela acontece geração por geração e configuração por configuração.
Os hiperescaladores fazem escolhas assertivas com base em suas necessidades específicas de implantação, escrevem software compatível e que funcionam com outras soluções similares, e a economia do modelo é muito encorajadora.
A pesquisa da consultoria indica que, em 2025, cerca de 25% das CPUs host em servidores ASIC de IA personalizados já eram baseadas em Arm.
A projeção é que esse índice atinja pelo menos 90% até 2029, impulsionado pela aceleração dos programas internos de chip Arm nos principais hiperescaladores.
O papel de AMD, Intel e NVIDIA
A AMD constrói plataformas de IA verticalmente integradas que incluem processadores x86 EPYC, aceleradores da série Instinct MI, Unidades de Processamento de Dados (DPUs) e Placas de Interface de Rede (NICs) da linha Pensando. Essa configuração sugere que as CPUs AMD já são adaptadas para cargas de IA.
A Intel, por sua vez, desenvolve processadores Xeon customizados para as plataformas de IA de próxima geração da NVIDIA, indicando otimização que prioriza esses ambientes.
Shah observa que, embora a Arm ganhe participação significativa nos próximos quatro a cinco anos, o x86 continuará com uma fatia considerável do mercado de servidores de IA.
Leia mais
- Emulador RPCS3 recebe mais otimizações para emular games de PS3 em CPUs ARM
- Vaga de emprego na EA indica Javelin Anticheat com driver Windows Arm 64
- Qualcomm descarta open source do Snapdragon X e frustra suporte ao Linux
Contexto de mercado
Para finalizar, vale ressaltar que muitos servidores de IA ainda dependerão de processadores como a linha EPYC da AMD e Xeon da Intel, fornecidos pelos fabricantes tradicionais.
A ampla adoção da Arm pelos hiperescaladores em seus programas de silício personalizado, no entanto, serve como sinal para que AMD e Intel tornem suas ofertas de CPUs customizadas mais atraentes para os clientes.
E aí? O que achou das novidades? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Adrenaline!
Fonte: Tom’s Hardware