Os chatbots de Inteligência Artificial são conhecidos por consumidor quantidades massivas de energia. Mas por que gastam afinal tanta eletricidade? A resposta está na enorme escala destes sistemas.
Nos últimos anos, o ChatGPT disparou em popularidade, com quase 200 milhões de utilizadores a enviar mais de mil milhões de pedidos à aplicação todos os dias, tal como, entre outras aplicações, o Gemini, da Google, o Grok ou o Perplexity.ia.
Pode parecer que as respostas a estes pedidos “aparecem do nada”. No entanto, nos bastidores, os chatbots de Inteligência Artificial consomem uma quantidade colossal de energia, que daria para alimentar anualmente cidades inteiras.
Em 2023, os centros de dados utilizados para treinar e processar IA foram responsáveis por 4,4% do consumo de eletricidade nos Estados Unidos. A nível global, estes centros representam cerca de 1,5% do consumo energético mundial.
Espera-se que estes números disparem, pelo menos duplicando até 2030, à medida que a procura por IA cresce.
“Há apenas três anos, ainda não tínhamos sequer o ChatGPT”, diz ao Live Science Alex de Vries-Gao, investigador em sustentabilidade de tecnologias emergentes na Vrije Universiteit Amsterdam e fundador da Digiconomist, uma plataforma dedicada a expor as consequências não intencionais das tendências digitais.
“E agora estamos a falar de uma tecnologia que vai ser responsável por quase metade do consumo elétrico dos centros de dados a nível global”, realça Vries-Gao.
Mas o que torna os chatbots de IA tão intensivos em energia? A resposta está na enorme escala destes sistemas. Em particular, existem duas fases da IA que consomem mais energia: o treino e a inferência, explica Mosharaf Chowdhury, cientista informático na Universidade de Michigan.
Para treinar chatbots de IA, os modelos de linguagem de grande dimensão (LLMs) recebem conjuntos de dados enormes, permitindo que a IA aprenda, reconheça padrões e faça previsões.
Em geral, existe a crença de que “quanto maior, melhor” no treino de IA, em que modelos maiores, que absorvem mais dados, tendem a produzir previsões mais precisas.
“Então, o que acontece quando se tenta treinar é que os modelos atualmente são tão grandes que não cabem numa única unidade de processamento gráfico; não cabem num único servidor”, detalha Chowdhury.
Para se ter uma ideia da escala, um estudo de Vries-Gao, publicado em 2023 na Joule, estimou que um único servidor Nvidia DGX A100 exige até 6,5 kW de potência. O treino de um LLM normalmente requer múltiplos servidores, cada um com uma média de oito GPUs, a funcionar durante semanas ou meses.
No total, isto consome montanhas de energia: estima-se que o treino do GPT-4 da OpenAI tenha usado 50 gigawatts-hora de energia, o equivalente a alimentar a cidade de São Francisco durante três dias.
A inferência também consome muita energia. É nesta fase que um chatbot de IA tira conclusões a partir do que aprendeu e gera uma resposta a um pedido.
Embora a execução de um LLM depois de treinado exija consideravelmente menos recursos computacionais, a inferência é intensiva em energia devido ao elevado número de pedidos enviados aos chatbots.
Segundo a OpenAI, em julho de 2025, os utilizadores do ChatGPT enviaram mais de 2,5 mil milhões de pedidos diariamente, o que significa que múltiplos servidores são utilizados para gerar respostas imediatas. Isto sem contar com outros chatbots amplamente usados, incluindo o Gemini da Google, que, segundo representantes da empresa, se tornará em breve a opção padrão no acesso ao Google Search.
“Mesmo na inferência, não é realmente possível poupar energia”, diz Chowdhury. “Não se trata de dados massivos. O modelo de dados já é enorme, mas temos um número gigantesco de pessoas a utilizá-lo”.
Conclusão: a culpa (também) é sua.