No es un problema. Es un desafío. Pero es un desafío que se debe empezar a resolver desde hoy, para evitar problemas mañana.
El consumo de electricidad de la IA (inteligencia artificial) es un hecho relevante y va a tener un impacto en la economía y sociedad globales. Estas herramientas de IA tienen algoritmos y modelos que consumen mucha energía. Eso implica, entonces, que el mundo necesitará mayor producción de gas natural, mayor generación eléctrica vía renovable, vía nuclear y de forma paralela reducir uso de carbón en la matriz eléctrica.
El propio magnate industrial Elon Musk indicó que está preocupado por el nivel de electricidad que se consumirá en el futuro inmediato.
Varios expertos anticipan que “Se trata de un crecimiento potencial de consumo eléctrico realmente astronómico” (Ben Inskeep, director de programas de Citizens Action Coalition, un grupo de defensa de los consumidores con sede en Indiana que monitorea el impacto energético de los centros de datos). El consumo de energía relacionado con la IA aumentará significativamente en los próximos años.
Los centros de datos, conforme ya tenemos establecido en una columna anterior, son edificaciones civiles, infraestructuras modernas, que albergan hardware y software e incluyen sistemas de alimentación eléctrica, fuentes de alimentación sin interrupciones, ventilación, sistemas de refrigeración, sistemas de supresión de incendios, generadores de respaldo y conexiones a redes externas. Son centros que, por supuesto, consumen electricidad 24/7. En relación a éstos centros de datos, la gigante Microsoft y OpenAI planean construir un centro de datos de 100.000 millones de dólares y con necesidad de consumo de 5 gigavatios de electricidad. Un monstruo que debe ser planificado al detalle.
Un par de ejercicios: una empresa de desarrollo de IA con una herramienta de IA multilingüe generadora de texto podría llegar a consumir 450 megavatios-hora (MWH), suficiente para abastecer de energía a 50 hogares estadounidenses de clase media durante un año. La poderosa corporación Google recientemente incorporó generativa a su servicio de correo electrónico, y tiene la potencia de procesar más de 10.000 millones de búsquedas/día lo que, naturalmente, consume electricidad. esas operaciones, me atrevo a afirmar, podrían llegar a utilizar hasta 30 Tera vatios de electricidad/anual en satisfacer esa capacidad, siguiendo la lógica planteada magistralmente por el analista Alex DeVries (de la plataforma DigiEconomist).
En esa misma línea, el analista indica que el funcionamiento de Chat GPT podría requerir 564 MWh de electricidad/día.
De manera que el planteamiento es: ¿cómo hacer más eficientes a estos centros de datos? ¿cómo lograr que generen su propia electricidad sin perjudicar las plantas de generación eléctrica de ciudades? ¿cómo lograr que generen electricidad renovable para evitar subir su huella de carbono? ¿Cómo lograr que nuevas empresas startups sean las portadoras de las soluciones a la industria energética en los próximos 5 años? En lo personal, trato de ensayar algunas respuestas a esas interrogantes en el libro Señor Chairman.
El desafío es mejorar eficiencia del hardware y software de IA para que la herramienta consuma menos energía y adicionalmente que cada centro de datos, por lo menos los más grandes y complejos, tengan su propia planta de back up en generación eléctrica (podría ser solar) de manera que garantizar que el consumo eléctrico sea suministrado por su propia planta solar adicionalmente al de red de la ciudad. Aunque el empresario Bill Gates, parece discrepar con Musk, DeVries y otros analistas, argumentando que la intensidad de consumo eléctrico de la IA no sería un obstáculo para combatir el cambio climático.
De todas formas, cualquier mejora y eficiencia de los sistemas nos conducirá, como bien tiene anotado DeVries a estar situados en el centro mismo de la paradoja de Jevons.
Dos ejemplos sobre “la paradoja”: 1) está en que el aumento de la eficiencia del aprovechamiento de combustibles fósiles generalmente no se traduce en reducción del consumo; sino al contrario, suele incrementar; y 2) ante el perfeccionamiento tecnológico destinado a aumentar la eficiencia en el empleo de un recurso, es más probable que suceda un aumento de su consumo que una disminución; de ahí que mejorar la eficiencia energética de la tecnología podría llevar a un mayor uso de energía, en lugar de reducirla. Y un mayor consumo de energía implica un mayor nivel de emisiones. (La paradoja fue analizada, conceptualmente, por el filósofo y economista británico William Stanley Jevons, en el siglo XIX. Tomado de: ¿Cómo afecta la paradoja de Jevons al cambio climático?. Álvaro Bayón, 2023).
Entonces, siendo así, varios analistas coinciden -y se quedan “cortos”- en señalar que para 2027 el consumo mundial de electricidad relacionada con la IA podría aumentar entre 85 y 150 TWh/anual. Ese dato debe ser sumado a la creciente demanda de electrificación del transporte terrestre, el plan de electrificar el transporte marítimo y la aviación. Esos datos ya dan para pensar: son el consumo anual de electricidad de varios países europeos.
A mayor consumo eléctrico mayor necesidad de tener fuentes renovables de preferencia, para suministrar electricidad.
Un dato final que pueden corroborar en redes: Wells Fargo analiza que la demanda de electricidad en Estados Unidos podría aumentar 20% para 2030, en parte debido a la IA.
Entonces, la conclusión es: se necesita más inversiones en infraestructura energética, más inversiones en producción de gas, gasoductos, plantas de separación de gas y en la industria eléctrica se necesita mayor generación solar/eólica, mejor sistema de distribución y mejores tecnologías que hagan más eficiente a la IA.
X @BorisSGomezU
Instagram @borissantosgomezuzqueda