Parte essencial da vida moderna, a computação está em todos os lugares. É difícil imaginar o cotidiano sem os recursos do mundo digital, como internet, redes sociais, streaming de vídeo, programas de inteligência artificial e os mais variados aplicativos. Governos, organizações e empresas de diversos setores dependem cada vez mais das tecnologias da informação e comunicação (TIC). O crescente aumento da demanda computacional, contudo, gera impactos no meio ambiente. Estima-se que entre 5% e 9% da energia elétrica consumida no mundo se destine à infraestrutura de TI e comunicações em geral e ao seu uso. A Agência Internacional de Energia (IEA) alerta para uma tendência de forte aumento nessa demanda. O gasto energético de data centers, instalações com robusto poder de armazenamento e processamento de dados, e dos setores de inteligência artificial (IA) e criptomoedas, segundo a entidade, poderá dobrar no mundo em 2026 em relação a 2022, quando foi de 460 terawatts-hora (TWh) – naquele mesmo ano, o Brasil consumiu 508 TWh de energia elétrica.
“O uso de energia é inerente à computação”, constata a cientista da computação Sarajane Marques Peres, da Escola de Artes, Ciências e Humanidades da Universidade de São Paulo (EACH-USP) e pesquisadora do Centro de Inteligência Artificial C4AI, financiado por FAPESP e IBM. Individualmente, ela destaca, um computador não representa uma grande demanda de energia, mas milhares de máquinas juntas ou muitos computadores com processadores poderosos trabalhando 24 horas por dia, sete dias por semana, representam um gasto elevado.
– As estratégias para tornar os data centers mais sustentáveis
– Mercado de criptomoedas tem elevado gasto energético
“Todas as nossas atividades digitais, como navegar na internet, acessar redes sociais, participar de videoconferências e enviar fotos para os amigos, têm, em última instância, efeitos sobre o ambiente”, aponta a cientista da computação Thais Batista, presidente da Sociedade Brasileira de Computação (SBC) e professora do Departamento de Informática da Universidade Federal do Rio Grande do Norte (UFRN).
A energia destinada aos data centers é usada não apenas para a operação dos servidores, mas para manter em funcionamento seu sistema de refrigeração. “Por trabalharem sem parar em processamento numérico, os computadores aquecem, emitem calor e precisam ser resfriados e mantidos em uma temperatura razoavelmente baixa”, ressalta o cientista da computação Marcelo Finger, do Instituto de Matemática e Estatística (IME) da USP. “A depender da matriz que produz essa energia, haverá mais ou menos efeitos nocivos no ambiente”, afirma Peres, referindo-se à emissão de dióxido de carbono (CO₂) quando são queimados combustíveis fósseis para a obtenção da energia elétrica utilizada.
O Banco Mundial e a União Internacional de Telecomunicações, uma agência da Organização das Nações Unidas (ONU), estimam que o setor da computação responda por pelo menos 1,7% de todas as emissões globais de gases do efeito estufa. “Outros estudos alertam para um número ainda maior, em torno de 4%”, diz o cientista da computação Emilio de Camargo Francesquini, do Centro de Matemática, Computação e Cognição da Universidade Federal do ABC (UFABC).

Google, Microsoft, Apple, Amazon e outras grandes multinacionais de tecnologia, as chamadas big techs, comprometeram-se a zerar suas emissões de carbono até 2030 – segundo especialistas ouvidos pela reportagem, não há indícios de que esse objetivo possa ser atingido. Em 2023, último ano com dados disponíveis, as emissões dessas companhias cresceram principalmente por causa dos sistemas de inteligência artificial, que demandam grande poder de processamento – e, portanto, elevada carga energética – para serem treinados e funcionar.
O aumento do consumo de energia e da emissão de carbono não é a única razão para preocupação. O uso intensivo de água por data centers para manter em operação seus sistemas de refrigeração, bem como a emissão de calor no ambiente, também acendem um sinal de alerta. “O consumo hídrico é uma preocupação mais recente, visto que a maioria dos grandes data centers usa refrigeração líquida para seus equipamentos de grande porte”, ressalta o bacharel em computação científica Álvaro Luiz Fazenda, do Instituto de Ciência e Tecnologia da Universidade Federal de São Paulo (Unifesp), campus de São José dos Campos. Uma das soluções é usar fontes de água não potável para os processos de resfriamento.
A exploração muitas vezes insustentável de elementos terras-raras e outros minerais, como silício, cobre e lítio, usados para a produção de discos rígidos, chips e baterias, e o descarte de computadores, celulares e outros aparelhos eletrônicos que rapidamente se tornam obsoletos, também elevam a pressão da computação sobre os ecossistemas. “As tecnologias da informação e comunicação estão entre os maiores consumidores de energia e recursos naturais, além de liderarem a geração de lixo eletrônico contendo substâncias perigosas”, sintetiza Francesquini.
Buscando enfrentar o problema, uma nova área de estudos, conhecida como computação verde ou sustentável, tem ganhado força no Brasil e no mundo. “Ela se refere ao conjunto de práticas, técnicas e procedimentos aplicados à fabricação, ao uso e ao descarte de sistemas computacionais com a finalidade de minimizar seu impacto ambiental”, explica o pesquisador da UFABC.
A fim de alcançar esse objetivo, várias práticas têm sido propostas, como elevar a eficiência energética de hardwares e softwares, permitindo que realizem as mesmas operações consumindo menos energia. Projetar sistemas mais duradouros, reparáveis e recicláveis, que reduzam a geração de lixo eletrônico, é outra abordagem, assim como priorizar o emprego de materiais sustentáveis na produção e operação de dispositivos computacionais e o uso de energias renováveis em data centers (ver reportagem).

VCG / VCG via Getty ImagesVista aérea de centro de dados da Tesla em Shangai, na China, inaugurado em 2021VCG / VCG via Getty Images
O peso da IA
Um crescente corpo de pesquisas aponta que a explosão das ferramentas de inteligência artificial – sejam elas generativas, como os grandes modelos de linguagem (LLM), do tipo do ChatGPT, ou preditivas – e da infraestrutura associada a elas é uma das principais causas do aumento da pegada ambiental do setor. Cada comando que se insere em um chatbot de IA exige a realização de milhares de cálculos para que o modelo decida quais são as palavras mais adequadas a serem apresentadas na resposta. Isso exige das máquinas intenso poder de processamento.
Estudo publicado por pesquisadores holandeses na Joule em outubro de 2023 mostrou que uma pergunta simples endereçada ao ChatGPT consome 3 watts-hora (Wh), quase 10 vezes mais energia do que uma busca similar feita no Google. O valor pode parecer pequeno, mas ganha proporção quando se sabe que o chatbot tem mais de 400 milhões de usuários ativos por semana que fazem mais de 1 bilhão de consultas por dia.
Outro trabalho, de cientistas das universidades da Califórnia em Riverside e do Texas em Arlington, avaliou a pegada hídrica das ferramentas de IA. Eles estimaram que o treinamento do ChatGPT-3 em um centro de dados da Microsoft nos Estados Unidos pode consumir até 700 mil litros de água limpa. Na fase de operação, o chatbot consome uma garrafa de 500 mililitros de água para cerca de 10 a 50 respostas de tamanho médio, dependendo de quando e onde os cálculos estão sendo realizados.
Esse mesmo estudo, depositado na plataforma arXiv em abril de 2023, estima que a demanda global de água pelos servidores que rodam os programas de IA no mundo equivalerá, em 2027, a algo entre 4,2 bilhões e 6,6 bilhões de metros cúbicos, o equivalente à metade do consumo do Reino Unido em 2023. “Isso é preocupante, pois a escassez de água doce se tornou um dos desafios mais urgentes”, escreveram os autores. “Para responder aos desafios globais da água, a IA pode e deve assumir responsabilidade social e liderar pelo exemplo, abordando sua pegada hídrica.”

Zoran Milich / Getty ImagesFuncionário examina lixo eletrônico em uma unidade recicladora em Massachusetts, nos Estados UnidosZoran Milich / Getty Images
Reduzir o gasto energético dos sistemas de inteligência artificial foi o que tentaram fazer os pesquisadores da startup chinesa DeepSeek. O chatbot DeepSeek-V3, lançado no fim de janeiro, causou surpresa ao apresentar desempenho comparável ao dos modelos da OpenAI e do Google, mas com custo substancialmente menor.
“O DeepSeek é um exemplo de que é possível desenvolver IA de boa qualidade usando menos recursos computacionais e energia”, ressalta o cientista da computação Daniel de Angelis Cordeiro, da EACH-USP. “Investir em pesquisa de algoritmos mais eficientes e em melhorias na gestão dos recursos computacionais usados nas etapas de treinamento e inferência pode contribuir para a criação de uma IA mais sustentável.”
De acordo com o artigo científico divulgado em janeiro pelos desenvolvedores do DeepSeek, a redução do consumo de recursos se deu em razão da melhoria nos algoritmos de balanceamento de carga empregados na etapa do treinamento do modelo, o que permitiu usar melhor os recursos computacionais sem degradação de desempenho. Também foram usados algoritmos de precisão mista, que otimizam processamento e comunicações na etapa de treinamento. Algoritmos de balanceamento de carga distribuem certa tarefa computacional entre diferentes servidores, enquanto os de precisão mista aceleram o processamento e reduzem o uso de memória, mantendo a precisão dos cálculos.
“A plataforma, de código aberto, é baseada em um grande modelo de linguagem e foi treinada a partir de dados que usam, de forma geral, a estrutura típica e as técnicas de otimização já adotadas por outros modelos, como o ChatGPT”, aponta o engenheiro eletricista Fabio Gagliardi Cozman, diretor do C4AI e professor da Escola Politécnica da USP. “Não se trata de uma total revolução na área, mas sim de um trabalho bem-feito de análise dos passos necessários para a construção desses modelos, com a remoção de algumas etapas, ênfase no uso de dados de qualidade e em particular de dados obtidos de outros modelos”, afirma, destacando que houve um grande esforço para reduzir as necessidades de memória e transmissão de informações durante o processo de treinamento. “Tudo isso somado levou a uma redução significativa nos recursos utilizados pela equipe.”

Dado Galdieri / Bloomberg via Getty Images Mina de lítio no Vale do Jequitinhonha (MG): exploração de insumos minerais para fabricação de computadores e baterias impacta o ambienteDado Galdieri / Bloomberg via Getty Images
Cálculos aproximados
Uma das estratégias propostas para reduzir o impacto ambiental dos sistemas de IA e da computação como um todo é a adoção de um modelo conhecido como computação aproximada. Consiste em usar técnicas algorítmicas ou hardwares dedicados (usados para uma única função) a fim de obter uma solução menos precisa, porém aceitável, para uma tarefa computacional qualquer. Ao reduzir a carga computacional para resolver certo problema, fornecendo um resultado aproximado, diminui-se o gasto de energia.
“Várias técnicas algorítmicas podem ser aplicadas, incluindo a precisão numérica reduzida, que permite trabalhar com valores e operações aritméticas com um menor número de casas decimais para representar números reais”, informa Fazenda, da Unifesp. Em vez de representar um número com precisão de 20 casas decimais, consideram-se apenas as 10 primeiras. “Isso pode causar arredondamentos indesejados e diferenças nos resultados, comprometendo a acurácia. No entanto, se forem insignificantes, é possível obter ganhos em desempenho e economia de energia, já que as operações com precisão reduzida demandam menos capacidade computacional”, diz.
Um dos trabalhos do pesquisador buscou compreender como a redução na precisão de dados afetaria a qualidade da simulação computacional e, consequentemente, de modelos de previsão de tempo e clima. “Os algoritmos usados nessas simulações são altamente demandantes de recursos de computação e, portanto, de energia. Requerem também representações precisas dos dados simulados, resultando no uso de precisões numéricas extensas, com variáveis de 64 bits”, explica o pesquisador. “Buscamos avaliar o potencial ganho em tempo e energia, dada a menor exigência de processamento, quando a precisão numérica é reduzida de 64 para 16 bits.”