Novo padrão ACE pode revolucionar IA em chips x86 com apoio de AMD e Intel

No ano passado, a Intel e a AMD firmaram uma parceria para fortalecer o ecossistema x86 por meio do “Grupo Consultivo do Ecossistema x86” (EAG). O plano era oferecer um conjunto padronizado de recursos em todas as arquiteturas, visando tornar o x86 acessível, escalável e compatível com os requisitos futuros.

Para a parceria, quatro recursos principais foram anunciados: FRED, AVX10, ChkTag e ACE.

E, agora, o white paper do ACE foi publicado pela AMD e pela Intel, oferecendo uma visão geral do que esse novo recurso para chips x86 tem a oferecer.

Notícias Relacionadas:

Arquitetura em tempos de IA

Créditos: HP.

As Extensões de Computação de Inteligência Artificial (ACE) para arquiteturas x86 visam oferecer um aumento significativo no desempenho da multiplicação de matrizes, além de escalabilidade e eficiência energética.

E a multiplicação de matrizes é o bloco central das redes neurais e dos Modelos de Aprendizado de Máquina (LLMs) em cargas de trabalho de IA.

As extensões SIMD (Instrução Única, Múltiplos Dados) atuais, como o AVX10, podem realizar multiplicação de matrizes, mas sua escalabilidade e densidade de computação podem ser limitadas. E técnicas como a Multiplicação Acelerada de Matrizes podem levar a um desempenho superior, mas essa não é uma abordagem eficiente.

Créditos: Reprodução.

No caso, o EAG visa solucionar esse problema por meio do ACE, que acelera a multiplicação de matrizes, oferecendo maior flexibilidade e escalabilidade. Ele permite a reutilização de otimizações AVX10 existentes, criando uma estrutura de aceleração de matrizes escalável para uma ampla gama de implementações.

Essa ampla gama incluem desde notebooks a supercomputadores.

Essa escalabilidade e capacidade multiplataforma reduzem o atrito para desenvolvedores em comparação com a transferência do processamento de IA para hardware especializado.

Resolvendo a questão

Conforme o white paper, a AMD e a Intel chamam o ACE de “Arquitetura Padrão de Aceleração de Matrizes para x86”. Em detalhes, ele suporta a multiplicação nativa de matrizes em formatos de dados de IA populares, incluindo INT8, OCP FP8, OCP MXFP8, OCP MXINT8 e BF16.

O ACE também introduz a aceleração de matrizes baseada em operação de produto externo, projetada para funcionar com AVX10.

A operação de produto externo ACE oferece um benefício de densidade computacional de 16 vezes em comparação com uma operação equivalente de multiplicação e acumulação AVX10, consumindo o mesmo número de vetores de entrada.

Créditos: Reprodução / Chat GPT.

Como o ACE é uma extensão do conjunto de instruções AVX10, sua habilitação por software está em andamento, e diversas integrações incluem:

  • Bibliotecas de Aprendizado Profundo e HPC (por exemplo, GEMMs de baixa precisão, primitivas LLM)
  • Bibliotecas populares baseadas em Python, como NumPy e SciPy • Frameworks de aprendizado de máquina, incluindo PyTorch e TensorFlow

Trata-se de apenas um passo no caminho a seguir para o x86. E o próprio CEO da NVIDIA afirmou que a aliança x86 entre a Intel e a AMD era necessária para manter a arquitetura viva. Ou seja, parece que o x86 está em boas mãos.

Fonte: x86ecosystem.org.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima