-
Datos de la OCDE de 2023 estimaron que los sistemas de IA consumirán entre 4.200 y 6.600 millones de metros cúbicos de agua al año para 2027.
-
Eso es más que el uso anual de agua de Dinamarca o casi la mitad de todo el Reino Unido.
-
GlobalData refiere que el problema de la escasez de agua ya ha superado la creciente demanda de electricidad.
La carrera por la inteligencia artificial no solo se mide en algoritmos o velocidad de procesamiento. Lo que pocas veces se discute en el debate público es la huella hídrica de estos sistemas, un factor que podría convertirse en la próxima crisis de la IA. Mientras gigantes tecnológicos como OpenAI y Google con su modelo Gemini continúan expandiendo sus capacidades, surge una pregunta inquietante: ¿qué tan sostenible es un desarrollo que depende de un recurso cada vez más escaso y esencial para la vida?
Con el crecimiento exponencial del uso de IA a nivel global, los centros de datos se han convertido en enormes consumidores de agua. No se trata solo de energía eléctrica o refrigeración; la cantidad de agua utilizada para mantener a los servidores es sorprendente y difícil de cuantificar, aunque estudios recientes comienzan a arrojar cifras concretas que causan alarma.
Google confesó el gasto de su IA
Google, a través de un informe técnico sobre Gemini, por primera vez abrió un vistazo al consumo de sus modelos de IA. Cada consulta mediana del sistema utiliza aproximadamente 0.24 vatios-hora de electricidad, el equivalente a encender un microondas por un segundo, y cinco gotitas de agua para la refrigeración de servidores. Aunque estos números parecen mínimos, la magnitud cambia al considerar que millones de prompts se ejecutan diariamente.
Las mejoras en hardware y software han reducido el consumo en un factor de 33 en apenas un año, según la compañía. Sin embargo, la transparencia sigue siendo parcial; nadie puede estimar con precisión la demanda global de agua vinculada al uso masivo de estos sistemas, ya que las consultas varían cada día. En el mismo informe, Google también detalló que cada solicitud emite aproximadamente 0.03 gramos de CO₂, subrayando que el impacto ambiental de la IA no se limita a la electricidad.
La paradoja de la innovación y la escasez
Investigadores de la Universidad de Colorado Riverside y la Universidad de Texas Arlington midieron el impacto de modelos como ChatGPT, GPT-3 y GPT-4. Sus conclusiones son contundentes: entrenar un modelo de gran escala puede consumir hasta 700 mil litros de agua dulce, suficiente para producir cientos de automóviles en fábricas como BMW o Tesla. La cifra se triplicaría si el entrenamiento se realiza en centros de datos en Asia, donde las necesidades de refrigeración son mayores debido a las condiciones climáticas.
Y es que el gasto de agua también es significativo en el momento en el que los usuarios usan ChatGPT ya que llega a consumir el equivalente a una botella de agua de 500 ml por cada sesión de chat de unas 20 a 50 preguntas. Una cantidad que tiene un gran impacto si tenemos en cuenta que millones de personas al día hacen uso de esta.
Europa y otras regiones del mundo enfrentan olas de calor récord, incendios forestales y sequías prolongadas, lo que convierte al agua en un recurso crítico para la población y, ahora, también para la tecnología. Los centros de datos dependen de ella no solo para enfriar chips y servidores, sino para garantizar la continuidad de servicios digitales que millones de personas utilizan a diario.
Según estimaciones de la OCDE, para 2027 los sistemas de IA podrían consumir entre 4.200 y 6.600 millones de metros cúbicos de agua al año, más que el consumo anual total de países como Dinamarca, y casi la mitad del Reino Unido. Esta realidad plantea un dilema, el progreso tecnológico puede generar enormes beneficios, pero también ejerce presión sobre un recurso esencial que no se puede reemplazar con electricidad ni con innovación digital.
La competencia por el agua entre usuarios humanos y sistemas de IA ya no es una hipótesis; se trata de una tensión que amenaza con convertirse en un cuello de botella estratégico para la industria tecnológica. Empresas como Microsoft han reportado que el entrenamiento de grandes modelos de IA en sus servidores estadounidenses requirió 700 mil litros de agua, lo suficiente para sostener una pequeña ciudad durante días. Cada sesión de ChatGPT, según la investigación, consume aproximadamente medio litro de agua, un gasto mínimo por usuario pero que se multiplica exponencialmente cuando millones interactúan simultáneamente con la IA.
El desafío que enfrentan OpenAI, Gemini y otros líderes del sector no es menor. No basta con optimizar algoritmos o reducir la energía por consulta; es necesario repensar cómo los modelos de IA consumen agua dulce limpia, un recurso que se está volviendo crítico ante el cambio climático y la escasez global. Algunos expertos sugieren que las compañías tecnológicas podrían invertir en sistemas de refrigeración menos dependientes del agua, uso de aguas residuales tratadas o estrategias de eficiencia hídrica en sus centros de datos.
El debate va más allá de la ingeniería. También implica responsabilidad ética, los gigantes de la IA tienen la oportunidad de liderar con el ejemplo, mostrando que la innovación no debe sacrificar recursos esenciales para la humanidad. La transparencia, que Google ha empezado a implementar con Gemini, es un primer paso. La siguiente etapa consiste en integrar la sostenibilidad en la estrategia de crecimiento, considerando que cada avance en IA tiene un impacto directo en el agua disponible para millones de personas.
La próxima crisis de la IA no será eléctrica ni tecnológica, sino hídrica.
Ahora lee:
Gap revive el debate tras campaña de Sydney Sweenie y American Eagle: ¿Sigue funcionando la narrativa de la diversidad?
Ibai Llanos crea el Mundial de Desayunos y demuestra el poder de los streamers en el consumo digital
El caso Nintendo y PETA como ejemplo de cómo la ética alcanza incluso a la ficción digital