NVIDIA diz que IA reduz meses de trabalho em design de chips para poucas horas

Conforme o cientista-chefe Bill Dally, a NVIDIA já utiliza Inteligência Artificial em diversas etapas do seu fluxo interno de projeto de chips. A afirmação foi feita durante uma conversa na GTC com o cientista-chefe do Google, Jeff Dean.

Nela, Dally afirmou que a empresa está aplicando IA à exploração de projetos, ao trabalho com bibliotecas de células padrão, à correção de bugs e à verificação. Porém, ele acrescentou que o projeto de chips totalmente automatizado de ponta a ponta ainda está longe de ser uma realidade.

Durante a entrevista, ele compartilhou um exemplo, a ferramenta NB-Cell da NVIDIA. Ele explicou que a adaptação da biblioteca de células padrão da empresa para um novo processo de semicondutores costumava levar uma equipe de oito pessoas cerca de 10 meses, ou 80 meses-homem no total.

Segundo Dally, com a ferramenta baseada em aprendizado por reforço, agora esse trabalho é realizado da noite para o dia em uma única GPU. E as células resultantes podem igualar ou superar projetos humanos em tamanho, consumo de energia e latência.

A ferramenta já estaria na segunda ou na terceira versão e é preciso reforçar que se trata de uma ferramenta especializada, não de uma IA geral. E, no caso de ferramentas especializadas, os custos tendem a ser significativamente menores com ganhos mais evidentes.

Notícias Relacionadas:

Outras ferramentas

Dally também mencionou outra ferramenta interna chamada Prefix RL, o objetivo dela é ajudar a resolver o problema, há muito estudado, de posicionar estágios de look-ahead em uma cadeia de carry look-ahead.

Conforme o executivo, esse sistema produz layouts que “nenhum humano jamais conceberia”, ao mesmo tempo que melhora as principais métricas em cerca de 20 a 30% em comparação com projetos humanos.

E trata-se de um detalhe útil porque demonstra que a NVIDIA não está apenas usando IA para economizar tempo de engenharia, mas também para buscar projetos que vão além da intuição humana comum.

Créditos: NVIDIA.

Em um nível mais amplo, Dally disse que a NVIDIA vem executando LLMs internos chamados Chip Nemo e Bug Nemo. Esses modelos foram refinados com base em material proprietário da NVIDIA, incluindo RTL e documentos de arquitetura para GPUs projetadas ao longo dos anos.

Um dos ganhos práticos é que engenheiros juniores podem consultar o modelo em vez de perguntar repetidamente a designers seniores como um bloco específico funciona, enquanto o sistema também pode resumir relatórios de bugs e ajudar a atribuí-los ao módulo ou engenheiro correto.

Neste caso, outra boa notícia é que uma empresa não se livrou dos funcionários “júnior” e encontrou uma maneira de treiná-los com mais eficiência. Porém, para alguns, pode ser um tanto frustrante ter uma LLM reduzida ao que pode ser chamado de “dicionário interativo”.

Fonte: NoRush Invest.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima