Una consulta en ChatGPT emplea 10 veces más energía que una búsqueda en Google, y generar una imagen de IA consume tanta energía como cargar un móvil. La capacidad del envejecido sistema estadounidense para soportar esta demanda está en duda.
La revolución de la inteligencia artificial ha provocado un auge en la construcción de centros de datos, impulsando una enorme demanda de energía para operar y enfriar los servidores. Esta situación está generando preocupaciones sobre la capacidad de Estados Unidos para generar suficiente electricidad y si su envejecido sistema eléctrico podrá manejar esta carga adicional, según un informe de CNBC.
Según un informe de Goldman Sachs, una consulta en ChatGPT utiliza casi 10 veces más energía que una búsqueda típica en Google. Además, generar una imagen de IA puede consumir tanta energía como cargar un smartphone.
El problema no es nuevo. En 2019, se estimó que entrenar un modelo de lenguaje grande producía tanto CO2 como el ciclo de vida completo de cinco autos a gasolina. Los hiperescaladores que construyen centros de datos para esta gran demanda de energía también están viendo aumentar sus emisiones. El último informe ambiental de Google muestra un aumento del 50% en las emisiones de gases de efecto invernadero de 2019 a 2023, en parte debido al consumo de energía de los centros de datos. Las emisiones de Microsoft aumentaron casi un 30% de 2020 a 2024 por razones similares.
En Kansas City, donde Meta está construyendo un centro de datos enfocado en IA, las necesidades de energía son tan altas que se ha pospuesto el cierre de una planta de energía a carbón.
Vea también: 2024, el año de la IA y las energías renovables
Existen más de 8.000 centros de datos en todo el mundo, con la mayor concentración en Estados Unidos. Y gracias a la IA, habrá muchos más para finales de la década. Boston Consulting Group estima que la demanda de centros de datos aumentará entre un 15% y un 20% cada año hasta 2030, momento en el que se espera que consuman el 16% del total de la energía en EE.UU., un aumento significativo desde el 2,5% antes del lanzamiento de ChatGPT de OpenAI en 2022. Esto equivale al consumo de energía de aproximadamente dos tercios de los hogares en EE.UU.
La empresa de chips Arm ha visto cómo sus procesadores de bajo consumo ganan popularidad entre gigantes tecnológicos como Google, Microsoft, Oracle y Amazon debido a su capacidad para reducir el uso de energía en hasta un 15% en centros de datos.
Nvidia, por su parte, ha desarrollado el procesador Grace Blackwell, que utiliza CPUs basadas en Arm y puede ejecutar modelos de IA generativa con 25 veces menos energía que la generación anterior.
Muchas grandes empresas tecnológicas están contratando firmas como Vantage para alojar sus servidores. Sus centros de datos tienen típicamente la capacidad de usar hasta 64 megavatios de energía, o tanto como decenas de miles de hogares. Muchos de esos centros están siendo ocupados por un solo cliente, y a medida que pensamos en aplicaciones de IA, esos números pueden crecer significativamente más allá de eso, hasta cientos de megavatios.
Santa Clara, California, ha sido durante mucho tiempo uno de los puntos más calientes del país para clústers de centros de datos cercanos a clientes que requieren grandes cantidades de datos. Algunas empresas ya observan una "ralentización" en el norte de California debido a la "falta de disponibilidad de energía de las empresas de servicios públicos en esta área".
La industria está buscando lugares con acceso cercano a fuentes de energía renovable, como eólica o solar, y otras infraestructuras que puedan aprovecharse, ya sea como parte de un programa de incentivos para convertir una planta de carbón en gas natural o, cada vez más, buscando formas de aprovechar la energía de instalaciones nucleares.
La integración de fuentes de energía renovables y la modernización de la infraestructura existente serán cruciales para sostener el crecimiento explosivo de la inteligencia artificial y sus demandas energéticas.
Comments