La sociedad aún se encuentra en proceso de comprender el alcance que tiene la implementación de la inteligencia artificial (IA) en múltiples esferas: desde el empleo y el arte, hasta la salud, la información y la protección de datos personales. Al margen de los efectos físicos y mentales que pueda ocasionar, el uso de la IA también conlleva repercusiones ecológicas, especialmente respecto a un recurso esencial y limitado como el agua.
El interés en el gasto hídrico asociado a la inteligencia artificial generativa ha ido en aumento, impulsado por casos como el del chatbot chino DeepSeek, cuyo desarrollo, según su compañía, fue más eficiente en términos de recursos, o por la aparición de nuevas versiones de generadores de imágenes, como aquellas que imitan el estilo artístico del estudio de animación japonés Studio Ghibli. En paralelo, se incrementan los informes y afirmaciones de especialistas sobre cuánta agua demandan estos sistemas. Aunque no es sencillo acceder a información precisa sobre el uso de agua en los centros de datos, a continuación analizamos lo que se conoce hasta el momento sobre este aspecto dentro del campo de la IA generativa.
Cada vez que vemos una película en streaming, almacenamos algo en la nube o enviamos un correo electrónico, nuestros dispositivos solicitan información a centros de datos, que son instalaciones repletas de servidores encargados de almacenar y procesar esas solicitudes.
Uno de los factores más importantes que hacen del agua un asunto significativo al discutir sobre IA es su papel en la refrigeración. Además de requerir electricidad para funcionar, los centros de datos deben tener sistemas de enfriamiento eficientes, puesto que el funcionamiento continuo de los servidores genera calor, similar a lo que sucede con una computadora personal, y es crucial eliminarlo.
Para enfriar estos equipos se utilizan métodos basados en aire, tradicionalmente los más comunes, así como técnicas de refrigeración líquida, que suelen emplear agua y resultan más eficientes en instalaciones de gran escala que tienen un elevado consumo energético. Según múltiples estudios y de acuerdo con Luc van Vliet, investigador en Gobernanza Medioambiental de la Universidad de Ámsterdam y citado por Maldita.es (medio cofundador de Factchequeado), estas soluciones líquidas se emplean mayoritariamente en centros de datos que están asociados al procesamiento de IA.
Un estudio publicado en 2021 en la revista científica Nature calcula que los centros de datos en EE. UU. consumen aproximadamente 1.700 millones de litros de agua al día para funcionar. El documento destaca la falta de transparencia en este sector, ya que «menos de un tercio de los administradores de centros de datos monitorean su uso de agua».
Es importante señalar que en un centro de datos, no todo el agua empleada se pierde. Una parte se convierte en vapor o se regresa al medio ambiente como aguas residuales, mientras que otra se reutiliza dentro del mismo sistema de enfriamiento, dependiendo de los sistemas específicos implementados en cada instalación.
En varias instalaciones en Estados Unidos, se utiliza un sistema cerrado donde el agua circula internamente sin ser liberada al entorno. Según la firma consultora APL, que se especializa en ingeniería y estrategias para centros de datos, este sistema se llena una vez y la misma agua sigue circulando por servidores, equipos de refrigeración y climatización.
Además del uso de agua para enfriar, otra fracción del gasto hídrico se relaciona con la producción de energía necesaria para alimentar los centros, como por ejemplo la generada en represas hidroeléctricas. También se consume agua durante la fabricación de los componentes electrónicos que componen los servidores, como microchips y circuitos integrados.
Sin embargo, el empleo de herramientas de inteligencia artificial para crear imágenes o comunicarse con un asistente como ChatGPT supone que los centros de datos ejecuten labores computacionales más intensivas, lo cual demanda un mayor gasto de electricidad y, como resultado, un aumento en el uso de agua.
Las plataformas de inteligencia artificial basadas en redes neuronales necesitan un alto poder de cómputo para funcionar con eficacia, bastante superior al de las actividades informáticas convencionales. A medida que estos sistemas evolucionan, realizan más operaciones, generan respuestas más detalladas y manejan cantidades crecientes de información, lo cual demanda más capacidad operativa y un mayor consumo global.
Conforme a Epoch AI, una organización de investigación en inteligencia artificial ubicada en San Francisco, la potencia de cálculo necesaria para desarrollar modelos de IA, tales como los de creación de contenido, interpretación de imágenes o aplicaciones científicas, se incrementa entre cuatro y cinco veces al año desde 2010. Asimismo, los procesadores empleados por estas tecnologías mejoran su rendimiento al doble cada 2,3 años y su capacidad de almacenamiento cada cuatro años. Este aumento trae consigo una mayor demanda de electricidad y, por consiguiente, un incremento en el consumo de agua.
Un informe de la Agencia Internacional de la Energía sostiene que los centros de datos diseñados específicamente para IA suelen contar con una capacidad entre cuatro y diez veces superior a la de los centros tradicionales. El mismo documento indica que el consumo energético de estas infraestructuras superará al de todo Japón en 2030, siendo la IA el principal motor de esta expansión.
Además, uno de los elementos que aumenta la influencia energética de la IA es que sus modelos necesitan ser entrenados con colecciones de datos amplias, lo que también causa un mayor consumo de energía eléctrica.

Más historias
Empresas hondureñas impulsan el crecimiento económico con más empleo y expansión desde 2022
Geopolítica de ChatGPT: cómo los chatbots de IA pueden usarse para compartir propaganda política e influir en la opinión pública
Cambio Climático y Salud Mental en Latinos: Un Análisis Profundo