Ciencia y Tecnología
Los centros de datos consumen muchísima agua, pero seguramente es menos de la que creíamos. La culpa la tiene un libro
Podemos criticar el boom de la IA por muchos motivos, pero hay uno que caló profundamente en la sociedad: el impacto ambiental, más concretamente el consumo de agua de cada interacción con la IA, necesaria para poder refrigerar los servidores. El problema es real, pero todo apunta a que se ha magnificado y el origen estaría en un error de cálculo en un popular libro.
El libro. Es ‘Empire of AI’ escrito por Karen Hao y del que ya hablamos en Xataka. Tras entrevistar a cientos de exempleados y personas cercanas a la compañía, la autora construye un relato detallado y muy crítico de OpenAI, más concretamente de su CEO Sam Altman. Entre las críticas a ese ‘imperio de la IA’, Hao menciona el desmesurado consumo de agua de la IA, llegando a afirmar que un centro de datos llegaría a consumir 1.000 veces más agua que una ciudad de 88.000 habitantes.
La crítica. Lo cuenta Andy Masley en su newsletter The Weird Turn Pro. Según sus cálculos, en realidad un 22% de lo que consume la ciudad o un 3% de todo el sistema municipal. Además, Masley afirma que el libro confunde extracción de agua (retirada temporal que se devuelve a la red) con consumo real.
El error de cálculo. La propia autora ha respondido al artículo de Masley citando el correo que envió al Servicio Municipal de Agua Potable y Alcantarillado de Chile (SMAPA), a quienes solicitó información sobre el consumo total de agua de Cerrillos y Maipu, las localidades que usó para hacer la comparación de consumo.
El problema está en que Hao solicitó la cantidad en litros, pero le respondieron sin especificar las unidades y todo indica que en realidad eran metros cúbicos, de ahí ese desfase tan grande. La autora ha vuelto a consultar con la SMAPA para que le aclaren este dato. Parece que, efectivamente, sí hay error.
Estimaciones. Cuánta agua consume la IA ha sido una pregunta recurrente en los últimos años. En septiembre de 2024, un estudio publicado por Washington Post calculaba que, para generar un texto de 100 palabras con ChatGPT, eran necesarios 519 mililitros de agua. El cálculo se hizo teniendo en cuenta el consumo anual total de centros de datos y el tipo de enfriamiento usado. Es una auténtica barbaridad.
Qué dicen las empresas. Las empresas de IA no son demasiado transparentes respecto al consumo de agua y energía de sus centros de datos. Las grandes tecnológicas dan el dato de consumo total anual en sus informes de sostenibilidad. Sabemos que gran parte del consumo se va en centros de datos, pero no es posible saber el consumo real de cada búsqueda.
Google ha sido la única que ha publicado datos concretos de consumo de energía y agua de su IA. Según la compañía, el consumo de agua por cada consulta a Gemini era de 0,26 mililitros, o lo que es lo mismo, unas cinco gotas de agua. No podemos extrapolar este dato a todos los centros de datos ni todas las empresas, pero efectivamente parece que las estimaciones previas son bastante exageradas.
Controversia por el agua. Todo esto no significa que no haya un problema con el agua y la IA. De hecho, el centro de datos de Cerrillos donde está el supuesto error de cálculo nunca llegó a construirse porque la justicia chilena lo paralizó debido al impacto climático que iba a tener, especialmente en el contexto de sequía en el que se encontraba la región. Los centros de datos necesitan muchísima agua, tanta que están surgiendo iniciativas para refrigerarlos sumergiéndolos en el océano.
El otro problema. El agua es sólo uno de los problemas a los que se enfrentan los centros de datos, la demanda energética plantea un reto aún mayor. En 2024, los centros de datos ya suponían un 4% del consumo eléctrico total de Estados Unidos y en los alrededores de algunas de estas bestias la factura de la luz ha subido un 267% en los últimos años. Las big tech ya lo están avisando: no hay energía para tantos chips y se están planteando desde crear centrales nucleares hasta llevarse sus centros de datos al espacio.
Imagen | Google
–
La noticia
Los centros de datos consumen muchísima agua, pero seguramente es menos de la que creíamos. La culpa la tiene un libro
fue publicada originalmente en
Xataka
por
Amparo Babiloni
.
Podemos criticar el boom de la IA por muchos motivos, pero hay uno que caló profundamente en la sociedad: el impacto ambiental, más concretamente el consumo de agua de cada interacción con la IA, necesaria para poder refrigerar los servidores. El problema es real, pero todo apunta a que se ha magnificado y el origen estaría en un error de cálculo en un popular libro.
El libro. Es ‘Empire of AI’ escrito por Karen Hao y del que ya hablamos en Xataka. Tras entrevistar a cientos de exempleados y personas cercanas a la compañía, la autora construye un relato detallado y muy crítico de OpenAI, más concretamente de su CEO Sam Altman. Entre las críticas a ese ‘imperio de la IA’, Hao menciona el desmesurado consumo de agua de la IA, llegando a afirmar que un centro de datos llegaría a consumir 1.000 veces más agua que una ciudad de 88.000 habitantes.
En Xataka
China ha empezado a construir un colosal centro de datos en una ubicación completamente inusual: el fondo del océano
La crítica. Lo cuenta Andy Masley en su newsletter The Weird Turn Pro. Según sus cálculos, en realidad un 22% de lo que consume la ciudad o un 3% de todo el sistema municipal. Además, Masley afirma que el libro confunde extracción de agua (retirada temporal que se devuelve a la red) con consumo real.
El error de cálculo. La propia autora ha respondido al artículo de Masley citando el correo que envió al Servicio Municipal de Agua Potable y Alcantarillado de Chile (SMAPA), a quienes solicitó información sobre el consumo total de agua de Cerrillos y Maipu, las localidades que usó para hacer la comparación de consumo.
El problema está en que Hao solicitó la cantidad en litros, pero le respondieron sin especificar las unidades y todo indica que en realidad eran metros cúbicos, de ahí ese desfase tan grande. La autora ha vuelto a consultar con la SMAPA para que le aclaren este dato. Parece que, efectivamente, sí hay error.
Estimaciones. Cuánta agua consume la IA ha sido una pregunta recurrente en los últimos años. En septiembre de 2024, un estudio publicado por Washington Post calculaba que, para generar un texto de 100 palabras con ChatGPT, eran necesarios 519 mililitros de agua. El cálculo se hizo teniendo en cuenta el consumo anual total de centros de datos y el tipo de enfriamiento usado. Es una auténtica barbaridad.
Qué dicen las empresas. Las empresas de IA no son demasiado transparentes respecto al consumo de agua y energía de sus centros de datos. Las grandes tecnológicas dan el dato de consumo total anual en sus informes de sostenibilidad. Sabemos que gran parte del consumo se va en centros de datos, pero no es posible saber el consumo real de cada búsqueda.
Google ha sido la única que ha publicado datos concretos de consumo de energía y agua de su IA. Según la compañía, el consumo de agua por cada consulta a Gemini era de 0,26 mililitros, o lo que es lo mismo, unas cinco gotas de agua. No podemos extrapolar este dato a todos los centros de datos ni todas las empresas, pero efectivamente parece que las estimaciones previas son bastante exageradas.
En Xataka
La inversión en centros de datos para IA es demencial, y va a ponerse peor. Mucho peor
Controversia por el agua. Todo esto no significa que no haya un problema con el agua y la IA. De hecho, el centro de datos de Cerrillos donde está el supuesto error de cálculo nunca llegó a construirse porque la justicia chilena lo paralizó debido al impacto climático que iba a tener, especialmente en el contexto de sequía en el que se encontraba la región. Los centros de datos necesitan muchísima agua, tanta que están surgiendo iniciativas para refrigerarlos sumergiéndolos en el océano.
El otro problema. El agua es sólo uno de los problemas a los que se enfrentan los centros de datos, la demanda energética plantea un reto aún mayor. En 2024, los centros de datos ya suponían un 4% del consumo eléctrico total de Estados Unidos y en los alrededores de algunas de estas bestias la factura de la luz ha subido un 267% en los últimos años. Las big tech ya lo están avisando: no hay energía para tantos chips y se están planteando desde crear centrales nucleares hasta llevarse sus centros de datos al espacio.
Imagen | Google
En Xataka | Lo que está sucediendo en EEUU es un aviso para España: los centros de datos disparando la factura de la luz en las casas
– La noticia
Los centros de datos consumen muchísima agua, pero seguramente es menos de la que creíamos. La culpa la tiene un libro
fue publicada originalmente en
Xataka
por
Amparo Babiloni
.


