Durante uma entrevista a Anant Goenka, do Express Adda, o CEO da OpenAI, Sam Altman, contestou as alegações sobre o custo ambiental da Inteligência Artificial. Ele rejeitou as estimativas amplamente divulgadas sobre o consumo de água e energia do ChatGPT e até fez uma comparação com seres humanos.
A entrevista aconteceu no último sábado e Altman rejeitou a afirmação de que cada consulta no ChatGPT consome 17 galões de água. “A questão da água é totalmente falsa; antigamente era verdade. Costumávamos usar resfriamento evaporativo em data centers, mas agora não usamos mais”, respondeu ele.
Ele reconheceu que a questão mais ampla do consumo de eletricidade é válida, embora tenha destacado que não no nível frequentemente alegado por consulta.
Notícias Relacionadas:
- Intel quer usar IA autônoma e Microsoft Copilot para consertar resolver problemas de hardware
- Fabricante japonesa de vasos sanitários pode ser peça-chave na demanda por memórias para IA
- Nova CEO de games da Microsoft promete não inundar o Xbox com “AI slop”
Impacto em escrutínio
O impacto ambiental da inteligência artificial tem sido alvo de crescente escrutínio. As Nações Unidas afirmaram em janeiro deste ano que a demanda global por eletricidade está crescendo rapidamente e deverá aumentar em mais de 10.000 terawatts-hora até 2035.
E isso equivale ao consumo total de todas as economias avançadas atualmente.
Os custos com energia estão entre os principais custos da Inteligência Artificial. E isso tem levado a preocupações porque cidadãos viram as contas de luz aumentar e não querem pagar o custo dessa tecnologia.
Inclusive, o Vale do Silício já enfrenta um problema de escassez de energia. E, não sem motivo, Elon Musk levou uma usina inteira aos EUA para alimentar super data center com 1 milhão de GPUs de IA e a Microsoft está apostando em supercondutores para alimentar Data Centers de IA com perda zero de energia.
Comparação Polêmica

A afirmação mais polêmica de Altman, porém, foi quando ele falou sobre as comparações entre o uso de energia pela IA e o uso de energia humana. Para o CEO, frequentemente, elas são formuladas de maneira incorreta.
Segundo ele, “também é preciso muita energia para treinar um humano”. E sua comparação foi além quando ele afirmou que “são necessários 20 anos de vida e toda a comida que você ingere durante esse período para que você se torne inteligente”.
Na sequência, ele ainda expandiu a comparação com os antepassados, afirmando que “foi necessária a evolução generalizada dos cem bilhões de pessoas que já viveram, que aprenderam a não serem devoradas por predadores e a compreender a ciência e tudo o mais para chegar até você, e então você absorveu o que absorveu”.
Assim, para ele, a comparação justa seria “se você perguntar ao ChatGPT uma questão, quanta energia ele gasta, depois de treinado, para respondê-la em comparação com um humano?”. E, para ele, “a IA já alcançou o humano em termos de eficiência energética”.
Problema em escala
O assunto deve ficar mais polêmico ainda por outros motivos. Uma reportagem do Washington Post destacou que o investimento maciço em IA contribuiu “praticamente com zero” para o crescimento econômico dos EUA no ano passado.
Os cálculos foram feitos pelo Goldman Sachs, um dos principais bancos de investimento do mundo.
Segundo a matéria, os gastos de empresas de tecnologia com inteligência artificial representaram metade ou mais do crescimento dos EUA no ano passado. Isso, na prática, significa que, retirados esses investimentos, a economia americana “estaria anêmica”.

Porém, esses “investimentos” podem ter sido “meros gastos”. Porque, conforme já noticiado no site, um estudo conclui que o uso de Inteligência Artificial não reduz o trabalho, mas aumenta. Ou seja, as empresas fizeram um “investimento” enorme em algo que precisarão descartar porque é menor eficiente que contratar pessoas.
Os números, inclusive, são corroborados por outro estudo segundo o qual a IA só vai substituir 2,5% dos trabalhos.
Fonte: @Maginative