Parte esencial de la vida moderna, la computación está en todos lados. Resulta difícil imaginar la vida cotidiana sin los recursos del mundo digital, tales como internet, las redes sociales, los videos en directo, los programas de inteligencia artificial y toda una variedad de aplicaciones. Gobiernos, organizaciones y empresas de diversos sectores dependen cada vez más de las tecnologías de la información y la comunicación (TIC). Sin embargo, el creciente aumento de la demanda computacional genera impactos en el medio ambiente. Se estima que entre el 5 % y el 9 % de la electricidad consumida en todo el mundo se destina a las infraestructuras informáticas y de comunicaciones en general y a su utilización. La Agencia Internacional de Energía (IEA) advierte sobre la tendencia a un fuerte incremento de esta demanda. Según la entidad, el consumo energético de los data centers, instalaciones con gran capacidad de almacenamiento y procesamiento de datos, así como el de los sectores de inteligencia artificial (IA) y criptomonedas, podría duplicarse a nivel mundial en 2026 comparado con el consumo de 2022, que fue de 460 teravatios-hora (TWh); ese mismo año, el consumo total de energía eléctrica de Brasil fue de 508 TWh.
“El consumo de energía es inherente a la computación”, afirma la científica de la computación Sarajane Marques Peres, de la Escuela de Artes, Ciencias y Humanidades de la Universidad de São Paulo (EACH-USP) e investigadora del Centro de Inteligencia Artificial C4AI, financiado por la FAPESP e IBM. Individualmente, subraya, una computadora no representa una gran demanda de energía, pero miles de máquinas juntas o muchos ordenadores con procesadores poderosos trabajando las 24 horas, los 7 días de la semana, representan un gasto elevado.
– Estrategias para lograr centros de procesamiento de datos más sostenibles
– El mercado de criptomonedas registra un elevado gasto energético
“Todas nuestras actividades digitales, tales como navegar por internet, acceder a las redes sociales, participar en videoconferencias y enviarles fotos a nuestros amigos, en última instancia acaban repercutiendo en el medio ambiente”, señala la científica de la computación Thais Batista, presidenta de la Sociedad Brasileña de Computación (SBC) y docente del Departamento de Informática de la Universidad Federal de Rio Grande do Norte (UFRN).
La energía destinada a los centros de datos o data centers no solamente se utiliza para la operación de los servidores, sino también para mantener en funcionamiento su sistema de refrigeración. “Como trabajan incesantemente realizando cálculos matemáticos, las computadoras se calientan, emiten calor y necesitan refrigeración para mantener una temperatura razonablemente baja”, subraya el científico de la computación Marcelo Finger, del Instituto de Matemática y Estadística (IME) de la USP. “Según cuál sea la matriz que produce esta energía, serán mayores o menores los efectos nocivos para el medio ambiente”, dice Marques Peres, en referencia a las emisiones de dióxido de carbono (CO2) producto de la quema de combustibles fósiles para obtener la energía eléctrica requerida.
El Banco Mundial y la Unión Internacional de Telecomunicaciones, organismo dependiente de la Organización de las Naciones Unidas (ONU), estiman que el sector de la computación es responsable de al menos el 1,7 % de todas las emisiones mundiales de gases de efecto invernadero. “Otros estudios advierten acerca de una cifra aún mayor, que ronda el 4 %, dice el científico de la computación Emílio de Camargo Francesquini, del Centro de Matemática, Computación y Cognición de la Universidad Federal del ABC (UFABC).
Grandes multinacionales tecnológicas como Google, Microsoft, Apple, Amazon y otras, las llamadas big techs, se han comprometido a reducir a cero sus emisiones de carbono para 2030, pero, según opinan los expertos entrevistados para la elaboración de este reportaje, no existen indicios de que esta meta pueda alcanzarse. En 2023, el último año con datos conocidos, las emisiones de estas compañías se incrementaron, principalmente a causa de los sistemas de inteligencia artificial, que exigen un gran poder de procesamiento y, por ende, un ingente consumo energético para poder ser entrenados y funcionar.
El aumento del consumo energético y de las emisiones de carbono no es el único motivo de preocupación. El uso intensivo de agua por los centros de procesamiento de datos para mantener en funcionamiento sus sistemas de refrigeración, así como la emisión de calor al ambiente, también hacen sonar las alarmas. “El consumo hídrico es una preocupación más reciente, dado que la mayoría de los grandes data centers utilizan refrigeración líquida para sus grandes equipos”, destaca Álvaro Luiz Fazenda, licenciado en computación científica del Instituto de Ciencia y Tecnología de la Universidad Federal de São Paulo (Unifesp), en su campus de São José dos Campos. Una de las soluciones consiste en utilizar fuentes de agua no potable para los procesos de refrigeración.
La explotación, a menudo insostenible, de elementos de tierras raras y otros minerales, tales como silicio, cobre y litio, que se utilizan para fabricar discos duros, chips y baterías, y el desechado de computadoras, celulares y otros aparatos electrónicos que se vuelven rápidamente obsoletos, también aumentan la presión de la computación sobre los ecosistemas. “Las tecnologías de la información y la comunicación figuran entre las que más consumen energía y recursos naturales, además de liderar la generación de basura electrónica que contiene sustancias peligrosas”, resume Francesquini.
Para tratar de hacer frente a este problema, un nuevo campo de estudios conocido como computación verde o sostenible, viene ganando impulso en Brasil y en todo el mundo. “Se aplica al conjunto de prácticas, técnicas y procedimientos empleados para la fabricación, la utilización y el desechado de sistemas de computación con el objetivo de minimizar su impacto ambiental”, explica el investigador de la UFABC.
Con miras a alcanzar esta meta, se han propuesto diversas prácticas, como aumentar la eficiencia energética de hardware y el software, lo que les permite realizar las mismas operaciones consumiendo menos energía. Otro enfoque apunta a diseñar sistemas más duraderos, reparables y reciclables, que reduzcan la generación de residuos electrónicos, así como priorizar el empleo de materiales sostenibles en la producción y el funcionamiento de los dispositivos computacionales y el uso de energías renovables en los centros de procesamiento de datos (véase el artículo).

VCG / VCG via Getty ImagesVista aérea del centro de datos de Tesla en Shanghái (China), inaugurado en 2021VCG / VCG via Getty Images
El peso de la IA
Cada vez son más los estudios que señalan a la proliferación de las herramientas de inteligencia artificial ‒ya sean generativas, como los modelos extensos de lenguaje, también llamados de lenguaje a gran escala (LLM), como ChatGPT, o predictivas‒ y a la infraestructura asociada a ellas como una de las causas principales del aumento de la huella ambiental del segmento. Cada comando que se introduce en un chatbot de IA requiere la realización de miles de cálculos para que el modelo decida cuáles son las palabras más apropiadas para ofrecer como respuesta. Esto exige a las máquinas una gran capacidad de procesamiento.
Un estudio publicado en octubre de 2023 por investigadores neerlandeses en la revista Joule demostró que una pregunta sencilla formulada a ChatGPT consume 3 vatios-hora (Wh), casi 10 veces más energía que una búsqueda similar efectuada en Google. Esta cifra puede parecer pequeña, pero cobra una dimensión mayor cuando se tiene en cuenta que este chatbot tiene más de 400 millones de usuarios activos por semana que realizan más de 1.000 millones de consultas diarias.
Otra investigación, en este caso realizada por científicos de las universidades de California en Riverside y Texas en Arlington, evaluó la huella hídrica de las herramientas de IA. Calcularon que el entrenamiento de ChatGPT-3 en un centro de datos de Microsoft en Estados Unidos puede consumir hasta 700.000 litros de agua limpia. En su fase operativa, el chatbot consume una botella de 500 mililitros de agua para entre 10 y 50 respuestas de tamaño medio, dependiendo de cuándo y dónde se realicen los cálculos.
En ese mismo estudio, depositado en la plataforma arXiv en abril de 2023, se estima que la demanda mundial de agua por los servidores que ejecutan los programas de IA en todo el mundo ascenderá a entre 4.200 y 6.600 millones de metros cúbicos en 2027, lo que equivale a la mitad del consumo del Reino Unido en 2023. “Esto es preocupante, ya que la escasez de agua dulce se ha convertido en uno de los retos más urgentes”, escribieron los autores. “Para dar respuesta a los desafíos globales que plantea la disponibilidad de agua, la IA puede y debe asumir su responsabilidad social y predicar con el ejemplo ocupándose de su huella hídrica”.

Zoran Milich / Getty ImagesUn empleado examina residuos electrónicos en una unidad recicladora de Massachusetts (Estados Unidos)Zoran Milich / Getty Images
Investigadores de la startup china DeepSeek intentaron reducir el gasto energético de los sistemas de inteligencia artificial. El chatbot DeepSeek-V3, lanzado a finales de enero, generó revuelo al mostrar un desempeño comparable al de los modelos de OpenAI y Google, pero con un costo sustancialmente inferior.
“DeepSeek prueba que es posible desarrollar IA de buena calidad utilizando menos energía y recursos computacionales”, subraya el científico de la computación Daniel de Angelis Cordeiro, de la EACH-USP. “La inversión en la investigación de algoritmos más eficientes y en mejoras en la gestión de los recursos computacionales utilizados en las etapas de entrenamiento e inferencia pueden contribuir al desarrollo de una IA más sostenible”.
Según el artículo científico publicado en enero por los desarrolladores de DeepSeek, la merma en el consumo de recursos fue producto de una mejora en los algoritmos de equilibrio de carga empleados en la fase de entrenamiento del modelo, lo que permitió un mejor uso de los recursos computacionales sin que ello supusiera una mengua en el rendimiento. También se utilizaron algoritmos de precisión mixta, que optimizan el procesamiento y las comunicaciones en la fase de entrenamiento. Los algoritmos de equilibrio de carga distribuyen una determinada tarea computacional entre diferentes servidores, mientras que los de precisión mixta aceleran el procesamiento y reducen el uso de memoria, manteniendo la precisión de los cálculos.
“La plataforma, de código abierto, se basa en un gran modelo de lenguaje y se entrenó a partir de datos que utilizan, a grandes rasgos, la estructura típica y las técnicas de optimización adoptadas por otros modelos como ChatGPT”, señala el ingeniero electricista Fabio Gagliardi Cozman, director de C4AI y docente de la Escuela Politécnica de la USP. “No se trata de una revolución total en el área, sino más bien de un trabajo de análisis bien hecho sobre los pasos necesarios para la construcción de estos modelos, que incluyó la eliminación de algunas etapas, hizo hincapié en el uso de datos de calidad y, en particular, de los datos obtenidos de otros modelos”, dice, destacando el gran esfuerzo en materia de reducción de los requerimientos de memoria y transmisión de información durante el proceso de entrenamiento. “La sumatoria de todos estos ítems condujo a una disminución sustancial de los recursos de los que se valió el equipo”.

Dado Galdieri / Bloomberg via Getty Images Mina de litio en Vale do Jequitinhonha (Minas Gerais): la explotación de insumos minerales para la fabricación de computadoras y baterías genera un impacto en el medio ambienteDado Galdieri / Bloomberg via Getty Images
Cálculos aproximados
Una de las estrategias propuestas para reducir el impacto ambiental de los sistemas de IA y de la computación en su conjunto es la adopción de un modelo conocido computación aproximada. Consiste en el uso de técnicas algorítmicas o hardware dedicado (utilizado para una única función) con la finalidad de obtener una solución menos precisa, aunque aceptable, para cualquier tarea computacional dada. Al reducir la carga de cálculo para resolver un determinado problema y proporcionar un resultado aproximado, se reduce el gasto energético.
“Se pueden aplicar diversas técnicas algorítmicas, entre ellas la precisión numérica reducida, que permite trabajar con cifras y operaciones aritméticas con menos decimales para representar números reales”, informa Fazenda, de la Unifesp. En lugar de representar un número con una precisión de 20 decimales, solamente se tienen en cuenta los 10 primeros. “Esto puede ocasionar redondeos no deseados y discrepancias en los resultados, comprometiendo su precisión. Sin embargo, de ser insignificantes, pueden obtenerse beneficios en cuanto al rendimiento y un ahorro de energía, ya que las operaciones con precisión reducida requieren una menor capacidad computacional”, dice.
Uno de los trabajos del investigador apuntó a entender cómo afectaría la reducción de la precisión de los datos la calidad de las simulaciones por computadora y, en consecuencia, los modelos de pronóstico meteorológico y climático. “Los algoritmos que se utilizan en estas simulaciones demandan un alto volumen de recursos computacionales y, por lo tanto, de energía. También exigen representaciones precisas de los datos simulados, lo que conlleva el uso precisiones numéricas extensas, con variables de 64 bits”, explica el investigador. “Estamos tratando de evaluar la ganancia potencial de tiempo y energía, dados los menores requisitos de procesamiento, cuando la precisión numérica se reduce de 64 a 16 bits”.

