No ano passado, a Intel e a AMD firmaram uma parceria para fortalecer o ecossistema x86 por meio do “Grupo Consultivo do Ecossistema x86” (EAG). O plano era oferecer um conjunto padronizado de recursos em todas as arquiteturas, visando tornar o x86 acessível, escalável e compatível com os requisitos futuros.
Para a parceria, quatro recursos principais foram anunciados: FRED, AVX10, ChkTag e ACE.
E, agora, o white paper do ACE foi publicado pela AMD e pela Intel, oferecendo uma visão geral do que esse novo recurso para chips x86 tem a oferecer.
Notícias Relacionadas:
- Ubuntu revela plano de IA sem integração forçada, mas sem “kill switch”
- Drivers da Intel permite dedicar até 93% da memória do sistema para Arc Pro
- Intel, AMD e MediaTek aumentam produção, mas preços de CPUs seguem em alta
Arquitetura em tempos de IA
As Extensões de Computação de Inteligência Artificial (ACE) para arquiteturas x86 visam oferecer um aumento significativo no desempenho da multiplicação de matrizes, além de escalabilidade e eficiência energética.
E a multiplicação de matrizes é o bloco central das redes neurais e dos Modelos de Aprendizado de Máquina (LLMs) em cargas de trabalho de IA.
As extensões SIMD (Instrução Única, Múltiplos Dados) atuais, como o AVX10, podem realizar multiplicação de matrizes, mas sua escalabilidade e densidade de computação podem ser limitadas. E técnicas como a Multiplicação Acelerada de Matrizes podem levar a um desempenho superior, mas essa não é uma abordagem eficiente.

No caso, o EAG visa solucionar esse problema por meio do ACE, que acelera a multiplicação de matrizes, oferecendo maior flexibilidade e escalabilidade. Ele permite a reutilização de otimizações AVX10 existentes, criando uma estrutura de aceleração de matrizes escalável para uma ampla gama de implementações.
Essa ampla gama incluem desde notebooks a supercomputadores.
Essa escalabilidade e capacidade multiplataforma reduzem o atrito para desenvolvedores em comparação com a transferência do processamento de IA para hardware especializado.
Resolvendo a questão
Conforme o white paper, a AMD e a Intel chamam o ACE de “Arquitetura Padrão de Aceleração de Matrizes para x86”. Em detalhes, ele suporta a multiplicação nativa de matrizes em formatos de dados de IA populares, incluindo INT8, OCP FP8, OCP MXFP8, OCP MXINT8 e BF16.
O ACE também introduz a aceleração de matrizes baseada em operação de produto externo, projetada para funcionar com AVX10.
A operação de produto externo ACE oferece um benefício de densidade computacional de 16 vezes em comparação com uma operação equivalente de multiplicação e acumulação AVX10, consumindo o mesmo número de vetores de entrada.

Como o ACE é uma extensão do conjunto de instruções AVX10, sua habilitação por software está em andamento, e diversas integrações incluem:
- Bibliotecas de Aprendizado Profundo e HPC (por exemplo, GEMMs de baixa precisão, primitivas LLM)
- Bibliotecas populares baseadas em Python, como NumPy e SciPy • Frameworks de aprendizado de máquina, incluindo PyTorch e TensorFlow
Trata-se de apenas um passo no caminho a seguir para o x86. E o próprio CEO da NVIDIA afirmou que a aliança x86 entre a Intel e a AMD era necessária para manter a arquitetura viva. Ou seja, parece que o x86 está em boas mãos.
Fonte: x86ecosystem.org.