O que é e qual a diferença entre uma IA e uma AGI?

O boom das IAs que seguiu ao lançamento do Chat GPT e suas versões trouxe muitas novidades para o cenário da tecnologia. Porém, trouxe também muita confusão. Não só os erros, ou alucinações, que as IAs causam oferecem problemas e riscos, mas também há muita discussão sobre o uso da tecnologia.

Acontece que há uma questão pouco explicada: o conceito de Inteligência Artificial é diferente do que muitos dos usuários estão acostumados. Em suma, o recurso de IA do smartwatch ou PC Copilot provavelmente é não é a IA que o usuário pensa que é.

Como a definição clássica de IA realmente confunde os limites entre aprendizado de máquina e consciência da máquina, é importante começar por ela.

Notícias Relacionadas:

A definição clássica de IA

Créditos: Walpaperflare.

Classicamente, a definição de IA é ilustrada com personagens como Data, Hal 9000 e GlaDOS. São computadores ou máquinas que demonstram capacidade de raciocínio. No caso de Data, ele até se parece com um humano.

E, no geral, mesmo que muitos não tenha crescido vendo Jornada nas Estrelas, os fãs de Star Wars são capazes de compreender IAs como sendo esses robôs que se comportam quase como humanos. E, no caso de fãs de Halo, são até mais humanos que MasterChef (ou eram).

Porém, hoje, isso não é seria mais chamado de IA, mas de AGI, Artificial General Inteligence. Ou seja, Inteligência Artificial Geral.

E a mudança no significado é profunda.

Conceito Atual

Créditos: Walpaper Flare.

Aquilo que é chamado de IA é algo bem mais restrito do que esses computadores acima mencionados. Não se trata de uma inteligência geral em si, mas de outro componente de um sistema em pleno funcionamento.

E essa parte do software, do sistema, é tornada útil por algoritmos especializados e utilitários de processamento de dados que formam um sistema completo.

O que significa que, na maioria das vezes que se usa o termo “IA” no contexto de aprendizado de máquina, refere-se a algoritmos que podem analisar padrões em dados.

Esses algoritmos são treinados em coisas como texto, multimídia ou até mesmo saídas numéricas brutas. E, usando esses dados de treinamento, eles identificam padrões por meio de probabilidade estatística.

Créditos: WalpaperFlare.

Eles podem ser treinados ainda mais por meio do aprendizado por reforço, recompensando saídas corretas e punindo saídas incorretas, como se estivesse treinando um hamster. Não é exatamente assim, mas a premissa é similar.

Os resultados permitem que esses algoritmos resumam, prevejam ou até mesmo gerem algo aparentemente novo. Em muitos casos, são tão impressionantes que um bom sistema de aprendizado de máquina pode ser indistinguível da IA ou da AGI, ao menos, para um leigo.

Porém, a diferença é grande. E, para facilitar, alguns usam o termo ANI, ou seja, Artificial Narrow Inteligence, Inteligência Artificial Estreita.

Na prática, qual a diferença?

Créditos: Gemini/Reprodução.

Toda ANI é limitada a tarefas especializadas. O GPT-4 Omni, especificamente, é um modelo de linguagem grande, o que significa que é treinado para entender e gerar linguagem natural, como as palavras que estou falando agora.

Ou seja, o GPT é basicamente um autocompletar turbinado como o que existe no WhatsApp.

A diferença fundamental é que o GPT também pode processar informações com base em padrões aprendidos durante o treinamento, incluindo definições e fórmulas matemáticas. Isso o torna capaz de gerar resultados únicos que não faziam parte dos seus dados de treinamento.

Créditos: Stable Diffusion.

Porém, como são limitados pelos dados de treinamento, em muitos casos, as respostas que dão se assemelham aos dados de treinamento. E esta é a razão de muitos acusarem as IAs generativas de plágio.

Porém, o problema é pior quando modelos generativos se deparam com um conceito que não entendem. Porque é aí que entram as alucinações, ou seja, eles simplesmente inventam coisas à medida que avançam, criando um texto natural, mas que pode ser totalmente falso.

Inútil?

Créditos: WalpaperFlare.

Essas limitações não significam que a ANI seja inútil. Modelos desse tipo tem sido implantados de forma muito eficaz para diagnosticar doenças e em outros cenários altamente complexos, onde os dados são densos e as conclusões exigem interpretação.

Esses modelos especializados são extremamente úteis. Porém, o uso deles é feito sob supervisão humana.

E também não se pode também dizer que essa tecnologia é totalmente inovadora.

Créditos: Gemini/Reprodução.

Redes neurais simples são usadas há décadas para coisas que vão do reconhecimento de caligrafia à análise de tráfego da web. E sim, até mesmo IA de videogame. Inclusive, alguns dos erros presentes em jogos se assemelham aos erros que acontecem em outras IAs como o GPT.

Em resumo, as ANIs, a partir de várias tentativas e vários erros, chegam a um ponto em que provavelmente apresentarão uma solução correta ou pelo menos correta o suficiente. O segredo é como reforçar a saída correta para todas as entradas similares.

Traduzindo para uma analogia, a ANI representa para um cérebro é o que um único aplicativo representa para um computador. Ela representa uma das várias funções possíveis. A AGI seria o cérebro completo.

Dependência do treinamento

Créditos: WalpaperFlare.

O grande problema das ANI é a dependência que elas possuem dos dados de treinamento. E isso vale para o GPT, como para os carros da Tesla. O que significa que, por melhores que sejam as demonstrações e a tecnologia em si, elas ainda não são isentas de riscos.

No caso do GPT, ele primeiro precisa ser alimentado com novas descobertas científicas (ou notícias) e treinado para dar saídas corretas. No caso de carros é mais complexo.

Não basta treinar o computador de um tesla com imagens de linhas pintadas e cones de trânsito, placas de pare, pedestres, dados de telemetria do veículo. A quantidade de manobras possíveis por humanos no trânsito simplesmente supera a quantidade de variáveis possíveis de serem treinadas.

E, por sua própria definição, uma ANI não é capaz de lidar com um caso extremo que nunca viu antes.

Como seria uma AGI?

Créditos: WalpaperFlare.

Uma AGI precisaria ser capaz de lidar com tudo que uma ANI faz e pegar algumas experiências passadas e transformá-las em uma nova criação.

E, assim como o cérebro humano, ela precisaria ser capaz de executar muitos desses modelos simultaneamente e treiná-los e iterar continuamente sobre eles, em vez de depender de respostas fixas e já existentes.

Só então uma IA teria a capacidade de realmente aprender e se adaptar a coisas novas.

Porém, o problema é que, mesmo que existisse um software tão sofisticado, ainda seria necessário um supercomputador capaz de rodá-lo. O que ainda não existe. Na prática, isso também significa que, ainda que o software de IA do carro da Tesla fosse uma AGI, o hardware não rodaria ela e ainda estaria sujeito a erros.

Estratégia de marketing?

Créditos: WalpaperFlare.

Isso significa que muitas das ferramentas que surgem hoje com IA, na verdade, estão usando marketing e se aproveitando da confusão que muitos fazem, sem perceber, entre ANI e AGI. Isso não significa que todos os responsáveis pelos times de marketing saibam a distinção.

Porém, é útil para o usuário saber a distinção e compreender que muitos dos medos, como a criação da Skynet, são irrazoáveis porque nenhuma ANI pode, simplesmente, virar uma AGI.

ANIs, por definição, não conseguem raciocinar. Inclusive, nem o GPT consegue entender porque, como e onde errou quando um usuário diz que ele errou. Ele pode mandar um texto de desculpas, mas ele só faz o que é programado enquanto chatbot.

Créditos: Freepik.

Outra coisa é que a memória das ANI é bem mais curta do que se imagina. Toda ANI tem um número finito de coisas que conseguem lembrar, chamadas tokens, que limitam sua capacidade de manter uma linha de pensamento por muito tempo.

É por isso que IAs generativas são péssimas com textos muito longos. E qualquer um que já tentou fazer o ChatGPT escrever um romance ou mesmo um script Python moderadamente complexo provavelmente pode atestar isso.

Eles podem ser bons para trechos, mas o conjunto todo ainda precisa de inferência humana.

Créditos: WalpaperFlare.

Com o passar do tempo, algumas dessas limitações deve desaparecer e os modelos de ANI começarão a se parecer cada vez mais com AGI para um leigo. Porém, isso não significa que uma ANI será capaz de criar uma narrativa tão longa quanto os 14 volumes de A Roda do Tempo.

Porém, o problema maior é este: quanto mais eficientes as ANIs, maior a desconfiança que elas poderão gerar criando, por exemplo, fotos ultrarrealistas de fatos que nunca aconteceram.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima