Ante el crecimiento vertiginoso del sector de la inteligencia artificial (IA), la búsqueda por minimizar el consumo energético se convierte en una prioridad. Nuevas técnicas de refrigeración, microchips más potentes y avances en programación forman parte de la estrategia para enfrentar este desafío.
Según la Agencia Internacional de la Energía (AIE), se prevé que los centros de datos que sustentarán la IA representen aproximadamente el 3% de las necesidades eléctricas globales para 2030, el doble de su proporción actual. Este incremento no pasa desapercibido para la inversión pública; el presidente Donald Trump planea anunciar en Pensilvania una inversión de alrededor de 70.000 millones de dólares en infraestructuras de IA y energía.
El consultor McKinsey destaca que se está viviendo una “carrera” por construir suficientes centros de datos que satisfagan la demanda creciente de la IA, al tiempo que aconseja sobre la inminente escasez de recursos energéticos. Mosharaf Chowdhury, profesor de la Universidad de Míchigan, señala que hay múltiples formas de abordar este problema. Por un lado, se pueden crear nuevas fuentes de energía; por otro, se debe considerar una reducción en la demanda actual.
La refrigeración por agua se presenta como una solución innovadora. Según Gareth Williams, de la consultora Arup, el consumo de energía para el enfriamiento de centros de datos ha disminuido significativamente: del 100% de consumo energético hace 20 años, ahora es solo el 10% en comparación con lo que consumen los propios servidores. Esta evolución se debe, en parte, al uso de sistemas de refrigeración líquida que hacen circular fluidos a través de los servidores, una técnica adoptada por los grandes actores del sector.
Nvidia, líder en semiconductores para IA, reporta un incremento notable en el consumo energético de sus chips más avanzados. Este cambio representa un reto significativo, pero permite temperaturas más elevadas en el líquido refrigerante, facilitando así su enfriamiento al contacto con el aire exterior. Adicionalmente, Amazon ha lanzado un nuevo sistema de refrigeración líquida que puede instalarse de manera autónoma en centros de datos existentes.
Los centros de datos también están adoptando inteligencia artificial para gestionar el consumo energético de manera más eficaz. Equipados con sensores avanzados, pueden optimizar el uso de agua y electricidad, mejorando así la eficiencia general. Los algoritmos desarrollados por el laboratorio de Chowdhury prometen un ahorro potencial de electricidad del 20% al 30%, a medida que la tecnología avanza hacia microprocesadores más eficientes.
Sin embargo, la cuestión de la energía no se limita a la infraestructura y los equipos; también se extendió a la programación de modelos de IA. DeepSeek, una start-up china, demostró que la programación precisa de GPUs puede igualar a las tecnologías más avanzadas de EE. UU. sin consumir tanta energía, evitando así un paso crucial que antes se consideraba esencial.
A pesar de estos avances, todavía persisten desafíos considerables, como lo sugiere la paradoja de Jevons: la eficiencia en el uso de recursos tiende a incrementar la demanda, a menudo contrarrestando los esfuerzos por disminuir el consumo energético. Aunque quizás la tasa de crecimiento del uso de energía podría desacelerarse, se anticipa que seguirá aumentando.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


