La inteligencia artificial (IA) se ha vuelto una herramienta cotidiana, no solo en lo académico, sino que esta última década su uso está siendo indiscriminado a múltiples aplicaciones desde el entretenimiento hasta el sector empresarial. Se ha vuelto muy popular por su practicidad y la comodidad que brinda al usuario, sin embargo, te has preguntado ¿cuánta energía se requiere para brindar una sola respuesta?
Según la Agencia Internacional de la Energía (IEA), una sola solicitud a una de las inteligencias artificiales más famosas, ChatGPT, requiere diez veces más energía que una búsqueda de Google.
En la actualidad, se estima que el consumo energético de los centros de carga es de 415 TWh, alrededor de un 1.5% del consumo energético global. Además se espera que la demanda energética pueda multiplicarse hasta 24.4 veces más en 2030.
Y, ¿qué son los centros de carga? Son las instalaciones donde se desarrollan principalmente los modelos de inteligencia artificial en los servidores y el equipo necesario para mantenerlos en funcionamiento constante. Un centro de datos se conforma principalmente por los siguientes elementos:
Servidores: son las computadoras que procesan y guardan información, equipados por CPUs y GPUs.
Sistema de almacenamiento: Dispositivos usados para almacenar y respaldar información.
Equipo de networking: el cual incluye interruptores para conectar dispositivos dentro del centro de datos, además de routers para dirigir el tráfico y controladores de carga para optimizar el rendimiento del sistema.
Sistema de enfriamiento: Se encarga de regular la temperatura y humedad de la instalación para mantener al equipo operando en condiciones óptimas.
Sistema de alimentación ininterrumpida (UPS), baterías y generadores de respaldo: Se encargan de mantener el centro de carga energizado durante apagones. El UPS y los generadores son usados en caso de emergencia, ya que la red eléctrica es la que alimenta toda la instalación.
Estos elementos requieren grandes cantidades de energía para funcionar ininterrumpidamente, siendo los servidores los que mayor energía demandan, como el 60% del total, y en segundo lugar está el sistema de enfriamiento, alrededor del 30%. Pero, ¿de dónde proviene esta energía?
En 2024 se tenía una demanda de 460 TWh, esperando que crezca a más de 1000 TWh en 2030, y a 1300 TWh en 2035. En la actualidad, el carbón es la principal fuente de energía de esta tecnología, esto debido a que China es la segunda región con el mayor consumo de electricidad, y es bien sabido que siguen teniendo como protagonista a este tipo de combustible. Sin embargo, Estados Unidos y Europa se encuentran en primer y tercer lugar respectivamente, De esta manera, las energías renovables (principalmente la eólica, solar fotovoltaica e hidroeléctrica) suministran el 27% de la energía de los centros de carga en el mundo. La tercera y cuarta fuente de energía principal es el gas natural (26%) y la nuclear (15%), respectivamente.
Notablemente, esta es una perfecta área de oportunidad para las energías renovables pues ambas tecnologías están creciendo rápidamente, lo que permitiría que estas fuentes limpias alimenten hasta el 50% de la demanda energética mundial de los centros de carga. Esta medida permitirá disminuir la huella de carbono que la inteligencia artificial está dejando en el mundo.
Pero, no hay que depender de las energía renovables únicamente. Actualmente, hay países que ya están desarrollando leyes para regular el impacto ambiental de la IA, como en la Unión Europea, asimismo, existen recomendaciones por parte de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) sobre la ética, incluyendo la disminución del impacto ambiental, en la IA.
No se trata de parar el uso de la IA, sino de hacerlo conscientemente y utilizarla de manera más estratégica. Se recomienda usar los distintos tipos de modelos de acuerdo a la complejidad de la tarea a realizar. Los modelos más grandes como los LLMs (Large Lenguaje Models) se pueden destinar a realizar problemas de razonamiento avanzado, mientras que los modelos más pequeños como los SLMs (Small Lenguaje Models) se usen para procesos operativos o repetitivos. Lo anterior debido a que si hay un impacto significativo al usar un modelo u el otro, pues se analizó que los modelos de gran escala pueden consumir hasta 4600 veces más energía que los modelos más simples.
Bibliografía:
https://unric.org/es/cuanta-energia-utiliza-la-ia/
https://www.iea.org/reports/energy-and-ai
https://www.ibm.com/mx-es/think/topics/artificial-intelligence-business

