Un grupo de investigadores ha advertido que utilizar el chatbot ChatGPT-3, desarrollado por OpenAI, para dar respuesta a entre 10 y 50 consultas necesita un consumo de alrededor de dos litros de agua, lo que significa que cuadruplica la cantidad que hasta ahora barajaban los expertos.
La Inteligencia Artificial (IA) es una tecnología que demanda grandes cantidades de recursos energéticos, ya sea para su entrenamiento o para su uso. Esto significa que, cuando mayores avances presente, más recursos necesitará.
Esto, porque servidores alojados en centros de datos y creados para impulsar esta tecnología procesan mucha información y, debido a que emiten mucho calor en estos procesos, tienen una mayor demanda de refrigeración para mantener su rendimiento y fiabilidad.
Conviene mencionar que el agua también debe ser potable -lo que supone mayor gasto-, debido a que las impurezas de esta sustancia no potable pueden dañar los servidores; y que muchos de estos centros de datos emplean sistemas que evaporan el calor, lo que significa que el agua no se reutiliza.
Desde el Instituto de la Ingeniería de España (IIE) avanzaron en septiembre del año pasado que una consulta en ChatGPT, el chatbot de inteligencia artificial generativa desarrollado por OpenAI, consumía tres veces más energía que otra hecha en el buscador de Google.
Esta no ha sido la única investigación relacionada con el consumo energético necesario para impulsar la tecnología, ya que un grupo de investigadores de la Universidad de Riverside (California) y de la Universidad de Arlington (Texas) ha arrojado nuevos datos relacionados con ello en diferentes ocasiones.
En octubre de 2023 publicaron una parte del estudio titulado Making AI Less ‘Thirsty’: Uncovering and Addresing the Secret Water Footprint of AI Models (’Hacer que la IA “tenga menos sed”: Descubrir y abordar la huella hídrica secreta de los modelos de IA). En él, recogían cuánta agua se consumía en el entrenamiento de grandes modelos de lenguaje, tomando de ejemplo el que impulsa ChatGPT.
Durante su entrenamiento en centros de datos de última generación de Microsoft en Estados Unidos, GPT-3, que trabaja con 175.000 millones de parámetros, podía consumir un total de 700.000 de litros de agua. Más concretamente, necesitaba 500ml de agua para dar respuesta a entre 10 y 50 solicitudes. Este número depende de la complejidad de la petición.
Entonces, los expertos señalaron que estas cifras podían aumentar en el caso de GPT-4, una iteración más avanzada, debido a que los servidores basados en este modelo ejecutan más cálculos para afinar las respuestas. Esto se ha mencionado más recientemente en un nuevo avance llevado a cabo por estos investigadores junto a The Washington Post.
Este medio señaló a mediados de septiembre que esta versión de del modelo -lanzada en marzo de 2023- requiere 519ml de agua, poco más de una botella, para generar un correo electrónico de cien palabras. En dicha publicación, también se expuso que, además de para impulsar estos modelos, los centros de datos también requieren enormes cantidades de energía para respaldar otras actividades, como la computación en la nube.
Así, si un centro de datos está ubicado en una región cálida, requiere aire acondicionado para su enfriamiento, de manera que se necesita mucha electricidad para mantener los servidores a baja temperatura y a pleno rendimiento. Y si los centros de datos que dependen de la refrigeración por agua están ubicados en áreas propensas a la sequía, pueden agotar este recurso natural.
Estos investigadores han dado un paso más en su análisis y han llegado a la conclusión de que utilizar ChatGPT con GPT-3 para responder a un máximo de 50 consultas precisa de más de 500ml de agua. En concreto, dos litros, según ha compartido uno de los autores de este estudio, el profesor de ingeniería eléctrica e informática de la Universidad de Riverside, Shaolei Ren, con The Times.
Ren ha indicado que el cálculo original de la huella hídrica se basó en una cifra proporcionada por OpenAI en 2020. Sin embargo, las nuevas cifras publicadas hace menos de un mes determinan que “el consumo de energía de GPT-3 será al menos cuatro veces superior” a esa cifra. “Esto significa también que la huella hídrica se multiplicará por cuatro”, ha sostenido.
Estados Unidos, el mayor consumidor
Estados Unidos es el mayor lugar del mundo para centros de datos, ya que dispone de más de 5000, en comparación con los que dispone Reino Unido, alrededor de los 600. Asimismo, los centros de datos que están por construir en este país en los próximos cinco años podrían necesitar la misma cantidad de agua que 500.000 personas, según Water UK.
Asimismo, los informes de sostenibilidad más recientes de las Big Tech muestran aumentos de dos dígitos en el consumo de agua por parte de las grandes tecnológicas: un 17 por ciento en el caso de Google y Meta, y un 22,5 por ciento en el caso de Microsoft.
Amazon, por su parte, ha mostrado ser “muy reservada” con sus cifras, en palabras del profesor de Riverside, debido a que no ha publicado cuánta agua consume porque considera que no se trata de una métrica real. En este sentido, considera que las empresas de IA deben plantear otros modelos y optimizar sus algoritmos, así como distribuir cargas de trabajo a ubicaciones con mayor eficiencia hídrica.
Por ejemplo, Google, a través de su división DeepMind, ha desarrollado un sistema de IA que le permitió reducir en un 40 por ciento su consumo de energía para los centros de refrigeración al gestionar el tráfico de datos de forma más eficiente.
Digital Realty, por su parte, está empleando agua proveniente de fuentes no potables, como el agua de lluvia, mientras que Iceotope emplea lo que denomina ‘refrigeración líquida de precisión’ para capturar casi el 100 por ciento del calor generado por los servidores. Se trata de un sistema que aplica un líquido especial en dispositivos apto para dispositivos electrónicos a través de la parte más caliente de la pila, que luego se enfría por aire. De este modo, no necesita agua para su funcionamiento.