Imprimir Republish

TAPA

Los impactos ambientales de la computación

El sector hace un uso intensivo de energía y agua, y es responsable de un 1,7% de las emisiones de carbono en la atmósfera, en tanto surge una nueva área de investigación con miras a afrontar este problema

Las torres de refrigeración del centro de procesamiento de datos de Google en Oregón (EE. UU.) exhalan vapor de agua

Google

Parte esencial de la vida moderna, la computación está en todos lados. Resulta difícil imaginar la vida cotidiana sin los recursos del mundo digital, tales como internet, las redes sociales, los videos en directo, los programas de inteligencia artificial y toda una variedad de aplicaciones. Gobiernos, organizaciones y empresas de diversos sectores dependen cada vez más de las tecnologías de la información y la comunicación (TIC). Sin embargo, el creciente aumento de la demanda computacional genera impactos en el medio ambiente. Se estima que entre el 5 % y el 9 % de la electricidad consumida en todo el mundo se destina a las infraestructuras informáticas y de comunicaciones en general y a su utilización. La Agencia Internacional de Energía (IEA) advierte sobre la tendencia a un fuerte incremento de esta demanda. Según la entidad, el consumo energético de los data centers, instalaciones con gran capacidad de almacenamiento y procesamiento de datos, así como el de los sectores de inteligencia artificial (IA) y criptomonedas, podría duplicarse a nivel mundial en 2026 comparado con el consumo de 2022, que fue de 460 teravatios-hora (TWh); ese mismo año, el consumo total de energía eléctrica de Brasil fue de 508 TWh.

“El consumo de energía es inherente a la computación”, afirma la científica de la computación Sarajane Marques Peres, de la Escuela de Artes, Ciencias y Humanidades de la Universidad de São Paulo (EACH-USP) e investigadora del Centro de Inteligencia Artificial C4AI, financiado por la FAPESP e IBM. Individualmente, subraya, una computadora no representa una gran demanda de energía, pero miles de máquinas juntas o muchos ordenadores con procesadores poderosos trabajando las 24 horas, los 7 días de la semana, representan un gasto elevado.

“Todas nuestras actividades digitales, tales como navegar por internet, acceder a las redes sociales, participar en videoconferencias y enviarles fotos a nuestros amigos, en última instancia acaban repercutiendo en el medio ambiente”, señala la científica de la computación Thais Batista, presidenta de la Sociedad Brasileña de Computación (SBC) y docente del Departamento de Informática de la Universidad Federal de Rio Grande do Norte (UFRN).

La energía destinada a los centros de datos o data centers no solamente se utiliza para la operación de los servidores, sino también para mantener en funcionamiento su sistema de refrigeración. “Como trabajan incesantemente realizando cálculos matemáticos, las computadoras se calientan, emiten calor y necesitan refrigeración para mantener una temperatura razonablemente baja”, subraya el científico de la computación Marcelo Finger, del Instituto de Matemática y Estadística (IME) de la USP. “Según cuál sea la matriz que produce esta energía, serán mayores o menores los efectos nocivos para el medio ambiente”, dice Marques Peres, en referencia a las emisiones de dióxido de carbono (CO2) producto de la quema de combustibles fósiles para obtener la energía eléctrica requerida.

El Banco Mundial y la Unión Internacional de Telecomunicaciones, organismo dependiente de la Organización de las Naciones Unidas (ONU), estiman que el sector de la computación es responsable de al menos el 1,7 % de todas las emisiones mundiales de gases de efecto invernadero. “Otros estudios advierten acerca de una cifra aún mayor, que ronda el 4 %, dice el científico de la computación Emílio de Camargo Francesquini, del Centro de Matemática, Computación y Cognición de la Universidad Federal del ABC (UFABC).

Alexandre Affonso / Revista Pesquisa FAPESP

Grandes multinacionales tecnológicas como Google, Microsoft, Apple, Amazon y otras, las llamadas big techs, se han comprometido a reducir a cero sus emisiones de carbono para 2030, pero, según opinan los expertos entrevistados para la elaboración de este reportaje, no existen indicios de que esta meta pueda alcanzarse. En 2023, el último año con datos conocidos, las emisiones de estas compañías se incrementaron, principalmente a causa de los sistemas de inteligencia artificial, que exigen un gran poder de procesamiento y, por ende, un ingente consumo energético para poder ser entrenados y funcionar.

El aumento del consumo energético y de las emisiones de carbono no es el único motivo de preocupación. El uso intensivo de agua por los centros de procesamiento de datos para mantener en funcionamiento sus sistemas de refrigeración, así como la emisión de calor al ambiente, también hacen sonar las alarmas. “El consumo hídrico es una preocupación más reciente, dado que la mayoría de los grandes data centers utilizan refrigeración líquida para sus grandes equipos”, destaca Álvaro Luiz Fazenda, licenciado en computación científica del Instituto de Ciencia y Tecnología de la Universidad Federal de São Paulo (Unifesp), en su campus de São José dos Campos. Una de las soluciones consiste en utilizar fuentes de agua no potable para los procesos de refrigeración.

La explotación, a menudo insostenible, de elementos de tierras raras y otros minerales, tales como silicio, cobre y litio, que se utilizan para fabricar discos duros, chips y baterías, y el desechado de computadoras, celulares y otros aparatos electrónicos que se vuelven rápidamente obsoletos, también aumentan la presión de la computación sobre los ecosistemas. “Las tecnologías de la información y la comunicación figuran entre las que más consumen energía y recursos naturales, además de liderar la generación de basura electrónica que contiene sustancias peligrosas”, resume Francesquini.

Para tratar de hacer frente a este problema, un nuevo campo de estudios conocido como computación verde o sostenible, viene ganando impulso en Brasil y en todo el mundo. “Se aplica al conjunto de prácticas, técnicas y procedimientos empleados para la fabricación, la utilización y el desechado de sistemas de computación con el objetivo de minimizar su impacto ambiental”, explica el investigador de la UFABC.

Con miras a alcanzar esta meta, se han propuesto diversas prácticas, como aumentar la eficiencia energética de hardware y el software, lo que les permite realizar las mismas operaciones consumiendo menos energía. Otro enfoque apunta a diseñar sistemas más duraderos, reparables y reciclables, que reduzcan la generación de residuos electrónicos, así como priorizar el empleo de materiales sostenibles en la producción y el funcionamiento de los dispositivos computacionales y el uso de energías renovables en los centros de procesamiento de datos (véase el artículo).

VCG / VCG via Getty ImagesVista aérea del centro de datos de Tesla en Shanghái (China), inaugurado en 2021VCG / VCG via Getty Images

El peso de la IA
Cada vez son más los estudios que señalan a la proliferación de las herramientas de inteligencia artificial ‒ya sean generativas, como los modelos extensos de lenguaje, también llamados de lenguaje a gran escala (LLM), como ChatGPT, o predictivas‒ y a la infraestructura asociada a ellas como una de las causas principales del aumento de la huella ambiental del segmento. Cada comando que se introduce en un chatbot de IA requiere la realización de miles de cálculos para que el modelo decida cuáles son las palabras más apropiadas para ofrecer como respuesta. Esto exige a las máquinas una gran capacidad de procesamiento.

Un estudio publicado en octubre de 2023 por investigadores neerlandeses en la revista Joule demostró que una pregunta sencilla formulada a ChatGPT consume 3 vatios-hora (Wh), casi 10 veces más energía que una búsqueda similar efectuada en Google. Esta cifra puede parecer pequeña, pero cobra una dimensión mayor cuando se tiene en cuenta que este chatbot tiene más de 400 millones de usuarios activos por semana que realizan más de 1.000 millones de consultas diarias.

Otra investigación, en este caso realizada por científicos de las universidades de California en Riverside y Texas en Arlington, evaluó la huella hídrica de las herramientas de IA. Calcularon que el entrenamiento de ChatGPT-3 en un centro de datos de Microsoft en Estados Unidos puede consumir hasta 700.000 litros de agua limpia. En su fase operativa, el chatbot consume una botella de 500 mililitros de agua para entre 10 y 50 respuestas de tamaño medio, dependiendo de cuándo y dónde se realicen los cálculos.

En ese mismo estudio, depositado en la plataforma arXiv en abril de 2023, se estima que la demanda mundial de agua por los servidores que ejecutan los programas de IA en todo el mundo ascenderá a entre 4.200 y 6.600 millones de metros cúbicos en 2027, lo que equivale a la mitad del consumo del Reino Unido en 2023. “Esto es preocupante, ya que la escasez de agua dulce se ha convertido en uno de los retos más urgentes”, escribieron los autores. “Para dar respuesta a los desafíos globales que plantea la disponibilidad de agua, la IA puede y debe asumir su responsabilidad social y predicar con el ejemplo ocupándose de su huella hídrica”.

Zoran Milich / Getty ImagesUn empleado examina residuos electrónicos en una unidad recicladora de Massachusetts (Estados Unidos)Zoran Milich / Getty Images

Investigadores de la startup china DeepSeek intentaron reducir el gasto energético de los sistemas de inteligencia artificial. El chatbot DeepSeek-V3, lanzado a finales de enero, generó revuelo al mostrar un desempeño comparable al de los modelos de OpenAI y Google, pero con un costo sustancialmente inferior.

“DeepSeek prueba que es posible desarrollar IA de buena calidad utilizando menos energía y recursos computacionales”, subraya el científico de la computación Daniel de Angelis Cordeiro, de la EACH-USP. “La inversión en la investigación de algoritmos más eficientes y en mejoras en la gestión de los recursos computacionales utilizados en las etapas de entrenamiento e inferencia pueden contribuir al desarrollo de una IA más sostenible”.

Según el artículo científico publicado en enero por los desarrolladores de DeepSeek, la merma en el consumo de recursos fue producto de una mejora en los algoritmos de equilibrio de carga empleados en la fase de entrenamiento del modelo, lo que permitió un mejor uso de los recursos computacionales sin que ello supusiera una mengua en el rendimiento. También se utilizaron algoritmos de precisión mixta, que optimizan el procesamiento y las comunicaciones en la fase de entrenamiento. Los algoritmos de equilibrio de carga distribuyen una determinada tarea computacional entre diferentes servidores, mientras que los de precisión mixta aceleran el procesamiento y reducen el uso de memoria, manteniendo la precisión de los cálculos.

“La plataforma, de código abierto, se basa en un gran modelo de lenguaje y se entrenó a partir de datos que utilizan, a grandes rasgos, la estructura típica y las técnicas de optimización adoptadas por otros modelos como ChatGPT”, señala el ingeniero electricista Fabio Gagliardi Cozman, director de C4AI y docente de la Escuela Politécnica de la USP. “No se trata de una revolución total en el área, sino más bien de un trabajo de análisis bien hecho sobre los pasos necesarios para la construcción de estos modelos, que incluyó la eliminación de algunas etapas, hizo hincapié en el uso de datos de calidad y, en particular, de los datos obtenidos de otros modelos”, dice, destacando el gran esfuerzo en materia de reducción de los requerimientos de memoria y transmisión de información durante el proceso de entrenamiento. “La sumatoria de todos estos ítems condujo a una disminución sustancial de los recursos de los que se valió el equipo”.

Dado Galdieri / Bloomberg via Getty Images Mina de litio en Vale do Jequitinhonha (Minas Gerais): la explotación de insumos minerales para la fabricación de computadoras y baterías genera un impacto en el medio ambienteDado Galdieri / Bloomberg via Getty Images 

Cálculos aproximados
Una de las estrategias propuestas para reducir el impacto ambiental de los sistemas de IA y de la computación en su conjunto es la adopción de un modelo conocido computación aproximada. Consiste en el uso de técnicas algorítmicas o hardware dedicado (utilizado para una única función) con la finalidad de obtener una solución menos precisa, aunque aceptable, para cualquier tarea computacional dada. Al reducir la carga de cálculo para resolver un determinado problema y proporcionar un resultado aproximado, se reduce el gasto energético.

“Se pueden aplicar diversas técnicas algorítmicas, entre ellas la precisión numérica reducida, que permite trabajar con cifras y operaciones aritméticas con menos decimales para representar números reales”, informa Fazenda, de la Unifesp. En lugar de representar un número con una precisión de 20 decimales, solamente se tienen en cuenta los 10 primeros. “Esto puede ocasionar redondeos no deseados y discrepancias en los resultados, comprometiendo su precisión. Sin embargo, de ser insignificantes, pueden obtenerse beneficios en cuanto al rendimiento y un ahorro de energía, ya que las operaciones con precisión reducida requieren una menor capacidad computacional”, dice.

Uno de los trabajos del investigador apuntó a entender cómo afectaría la reducción de la precisión de los datos la calidad de las simulaciones por computadora y, en consecuencia, los modelos de pronóstico meteorológico y climático. “Los algoritmos que se utilizan en estas simulaciones demandan un alto volumen de recursos computacionales y, por lo tanto, de energía. También exigen representaciones precisas de los datos simulados, lo que conlleva el uso precisiones numéricas extensas, con variables de 64 bits”, explica el investigador. “Estamos tratando de evaluar la ganancia potencial de tiempo y energía, dados los menores requisitos de procesamiento, cuando la precisión numérica se reduce de 64 a 16 bits”.

Alexandre Affonso / Revista Pesquisa FAPESP

Este estudio, descrito en los anales de la XI Escuela Regional de Alto Rendimiento de São Paulo (Erad-SP), un evento realizado en 2020, se basó en una revisión sistemática del tema. En el mismo, se trató de identificar en qué tramos de un modelo numérico de pronóstico meteorológico y climático tales adaptaciones podrían ser positivas y cuáles no permiten el uso de esta técnica. Los resultados preliminares revelan un sesgo positivo hacia su uso, según se recoge en un resumen publicado en los anales del International Colloquium on Energy-Efficient and Sustainable Distributed Systems, que se llevó a cabo en la UFRN en 2024.

La computación aproximada también puede aplicarse a los aceleradores de hardware que se utilizan para decodificar videos: los aceleradores son circuitos o procesadores especiales optimizados para ejecutar tareas específicas con mayor eficiencia y menor gasto de energía. En este caso, el resultado sería la visualización de una imagen de video con algunos píxeles incorrectos, pero sin llegar a afectar la percepción general del usuario. Este procesamiento consumiría menos energía que si se utilizara un decodificador de precisión.

“El reto de la computación aproximada radica en la incorporación de estas técnicas en procesadores y diversas aplicaciones, distinguiendo claramente entre lo que puede ser aproximado y lo que debe ser más preciso”, analiza Lucas Wanner, científico de la computación del Instituto de Computación de la Universidad de Campinas (IC-Unicamp), cuyas investigaciones se centran en la eficiencia energética en hardware y software, con énfasis en la computación de alto rendimiento y la computación aproximada.

Otro enfoque de la computación verde es la producción de dispositivos más eficientes desde el punto de vista energético. “Varios grupos de investigadores brasileños y extranjeros trabajan en el desarrollo de nuevos tipos de hardware que ofrecen el mismo rendimiento computacional, pero consumen menos energía”, dice el científico de la computación Fabio Kon, del IME-USP.

Alexandre Affonso / Revista Pesquisa FAPESP

El uso de procesadores de bajo consumo fue objeto de uno de los trabajos el grupo de Francesquini, de la UFABC. “Evaluamos el comportamiento de una aplicación específica de la industria de la explotación de petróleo y gas en cuatro arquitecturas de hardware distintas”, explica. Los resultados, publicados en febrero de 2015 en la revista Journal of Parallel and Distributed Computing, revelaron una aparente contradicción: a menudo, para disminuir el consumo de energía, el mejor criterio consiste en aceptar una ejecución del programa ligeramente más lenta, siempre y cuando respete las restricciones establecidas. En otros casos puede ser necesario elevar el consumo energético para asegurar un tiempo de ejecución apropiado. “En función de la aplicación, del hardware disponible y de las limitaciones implicadas, no es posible minimizar simultáneamente ambos factores, es decir, el consumo de energía y el tiempo de ejecución”, comenta.

En otra investigación centrada en la exploración de nuevas arquitecturas o modelos de hardware, el grupo de Wanner aplicó una técnica de ahorro energético sencilla y eficaz, denominada duty cycling, pero cuya aplicación práctica constituye todo un reto. El término, que significa ciclo de trabajo, alude a la desconexión de partes del circuito de una computadora cuando no se utilizan. “Ello implica introducir ligeras modificaciones en el hardware que permitan desactivar selectivamente las partes elegidas, reduciendo la frecuencia de operación, o apagarlas por completo, cortando el suministro de energía”, explica el investigador de la Unicamp. Hoy en día, todos los sistemas de computación incorporan una variante de esta técnica. En los ordenadores portátiles, la pantalla se apaga al cabo de algunos segundos sin actividad, en tanto que los teclados y ratones se desactivan cuando no se utilizan y “despiertan” cuando así se lo requiere.

“En el caso de los circuitos dedicados, como se indica en nuestro trabajo, el desafío consiste en despertar al sistema en el momento adecuado sin perder la calidad de los resultados para su aplicación. Otra dificultad radica en que el ciclo de trabajo necesita operar en forma autónoma, ya que no hay un usuario que indique cuándo el sistema debe permanecer activo y cuando puede ‘dormir’, como ocurre en el caso del uso cotidiano de nuestras computadoras”. Este trabajo salió publicado en junio de 2024 en la revista IEEE Embedded Systems Letters.

GoogleSistema de refrigeración del centro de datos de Google: las tuberías azules suministran agua fría y por las rojas retorna el líquido calentado para su enfriamientoGoogle

Recomendaciones no vinculantes
La preocupación por el impacto de la computación en el planeta no solo moviliza al mundo académico y a la propia industria, sino también a organizaciones internacionales y gobiernos. De acuerdo con el Programa de las Naciones Unidas para el Medio Ambiente (Pnuma), más de 190 naciones ya han adoptado recomendaciones no vinculantes ‒que no obligan a su cumplimiento‒ sobre el uso ético de la inteligencia artificial, que también abarcan cuestiones relativas al medio ambiente. Estados Unidos y la Unión Europea ya cuentan con leyes para hacer frente a este problema.

En una nota técnica, el Pnuma recomienda la necesidad de establecer procedimientos estandarizados con miras a dimensionar el impacto ambiental de la IA, dada la escasez de datos fiables sobre el problema. También aconseja a los gobiernos exigirles a las empresas del sector que hagan públicas las consecuencias para el medio ambiente del uso de sus productos y servicios basados en la inteligencia artificial.

“Las recomendaciones no vinculantes no serán suficientes para regular el crecimiento de los data centers y el consumo mundial de energía de la IA”, reflexiona el sociólogo João Paulo Cândia Veiga, del Instituto de Relaciones Internacionales (IRI) de la USP e investigador del C4AI. “Las decisiones que tengan que ver con una futura regulación a nivel nacional, probablemente se tomarán siguiendo directrices internacionales, como las de la propia IEA y otros organismos”.

Este artículo salió publicado con el título “Los impactos del mundo digital en el medio ambiente” en la edición impresa n° 349 de marzo de 2025.

Proyectos
1.
Centro de Inteligencia Artificial (no 19/07665-4); Modalidad Centros de Investigaciones en Ingeniería; Acuerdo de cooperación IBM Brasil; Investigador responsable Fabio Gagliardi Cozman (USP); Inversión R$ 12.426.244,72.
2. CCD – Ciudades con Carbono Neutro (no 24/01115-0); Modalidad Centros de Ciencia y Desarrollo; Investigador responsable Liedi Legi Bariani Bernucci (USP); Inversión R$ 3.347.593,43.
3. INCT 2014 – Internet del futuro (no 14/50937-1); Modalidad Proyecto Temático; Investigador responsable Fabio Kon (USP); Inversión R$ 2.121.398,08.
4. Tendencias en computación de alto rendimiento, desde la gestión de recursos hasta las nuevas arquitecturas de computadoras (no 19/ 26702-8); Modalidad Proyecto Temático; Investigador responsable Alfredo Goldman vel Lejbman (USP); Inversión R$ 2.746.855,25.
5. EcoSustain: Ciencia de datos y computación para el medio ambiente (no 23/00811-0); Modalidad Proyecto Temático; Investigador responsable Antonio Jorge Gomes Abelém (UFPA); Inversión R$ 3.999.467,22.

Artículos científicos
VRIES, A. D. et al. The growing energy footprint of artificial intelligence. Joule. v. 7, p. 2191-94. 18 oct. 2023.
FREITAG, C. et. al. The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations. Patterns. v. 2, 100340. 10 sep. 2021.
STRUBELL, E. et al. Energy and policy considerations for Deep Learning in NLP. arXiv. 5 jun. 2019.
PENGFEI, L.  et al. Making AI less “thirsty”: Uncovering and addressing the secret water footprint of AI models. arXiv. 6 abr. 2023.
GUO, D. et al. DeepSeek-R1: Incentivizing reasoning capability in LLMs via reinforcement learning. arXiv. 25 ene. 2025.
SUDO, M. A. y FAZENDA, L. A. A review on approximate computing applied to meteorological forecast models using software-based techniques. Anais da XI Escola Regional de Alto Desempenho de São Paulo (Erad-SP). 2020.
FRANCESQUINI, E. et al. On the energy efficiency and performance of irregular application executions on multicore, Numa and manycore platforms. Journal of Parallel and Distributed Computing. v. 76, p. 32-48. feb. 2015.
CASTRO et al. Exploring dynamic duty cycling for energy efficiency in coherent DSP ASIC. IEEE Embedded Systems Letters. v. 16, n. 2, p. 202-5. jun. 2024.

Informes
Electricity 2024: Analysis and forecast 2026. Agência Internacional de Energia (IEA). ene. 2024.
Environmental Report 2024. Google. jul. 2024.

Republicar