CEO da OpenAI diz que treinar humanos também consome muita energia e defende eficiência da IA

Durante uma entrevista a Anant Goenka, do Express Adda, o CEO da OpenAI, Sam Altman, contestou as alegações sobre o custo ambiental da Inteligência Artificial. Ele rejeitou as estimativas amplamente divulgadas sobre o consumo de água e energia do ChatGPT e até fez uma comparação com seres humanos.

A entrevista aconteceu no último sábado e Altman rejeitou a afirmação de que cada consulta no ChatGPT consome 17 galões de água. “A questão da água é totalmente falsa; antigamente era verdade. Costumávamos usar resfriamento evaporativo em data centers, mas agora não usamos mais”, respondeu ele.

Ele reconheceu que a questão mais ampla do consumo de eletricidade é válida, embora tenha destacado que não no nível frequentemente alegado por consulta.

Notícias Relacionadas:

Impacto em escrutínio

Créditos: Chat GPT / Reprodução.

O impacto ambiental da inteligência artificial tem sido alvo de crescente escrutínio. As Nações Unidas afirmaram em janeiro deste ano que a demanda global por eletricidade está crescendo rapidamente e deverá aumentar em mais de 10.000 terawatts-hora até 2035.

E isso equivale ao consumo total de todas as economias avançadas atualmente.

Os custos com energia estão entre os principais custos da Inteligência Artificial. E isso tem levado a preocupações porque cidadãos viram as contas de luz aumentar e não querem pagar o custo dessa tecnologia.

Inclusive, o Vale do Silício já enfrenta um problema de escassez de energia. E, não sem motivo, Elon Musk levou uma usina inteira aos EUA para alimentar super data center com 1 milhão de GPUs de IA e a Microsoft está apostando em supercondutores para alimentar Data Centers de IA com perda zero de energia.

Comparação Polêmica

Créditos: Chat GPT / Reprodução.

A afirmação mais polêmica de Altman, porém, foi quando ele falou sobre as comparações entre o uso de energia pela IA e o uso de energia humana. Para o CEO, frequentemente, elas são formuladas de maneira incorreta.

Segundo ele, “também é preciso muita energia para treinar um humano”. E sua comparação foi além quando ele afirmou que “são necessários 20 anos de vida e toda a comida que você ingere durante esse período para que você se torne inteligente”.

Na sequência, ele ainda expandiu a comparação com os antepassados, afirmando que “foi necessária a evolução generalizada dos cem bilhões de pessoas que já viveram, que aprenderam a não serem devoradas por predadores e a compreender a ciência e tudo o mais para chegar até você, e então você absorveu o que absorveu”.

Assim, para ele, a comparação justa seria “se você perguntar ao ChatGPT uma questão, quanta energia ele gasta, depois de treinado, para respondê-la em comparação com um humano?”. E, para ele, “a IA já alcançou o humano em termos de eficiência energética”.

Problema em escala

O assunto deve ficar mais polêmico ainda por outros motivos. Uma reportagem do Washington Post destacou que o investimento maciço em IA contribuiu “praticamente com zero” para o crescimento econômico dos EUA no ano passado.

Os cálculos foram feitos pelo Goldman Sachs, um dos principais bancos de investimento do mundo.

Segundo a matéria, os gastos de empresas de tecnologia com inteligência artificial representaram metade ou mais do crescimento dos EUA no ano passado. Isso, na prática, significa que, retirados esses investimentos, a economia americana “estaria anêmica”.

Porém, esses “investimentos” podem ter sido “meros gastos”. Porque, conforme já noticiado no site, um estudo conclui que o uso de Inteligência Artificial não reduz o trabalho, mas aumenta. Ou seja, as empresas fizeram um “investimento” enorme em algo que precisarão descartar porque é menor eficiente que contratar pessoas.

Os números, inclusive, são corroborados por outro estudo segundo o qual a IA só vai substituir 2,5% dos trabalhos.

Fonte: @Maginative

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima