Un estudio ha estimado el coste energético de ChatGPT. Según sus conclusiones, no es tan apocalíptico como aparenta

Escrito por Eduardo Peralta

La Inteligencia Artificial al Alcance de Todos

Descubriendo el Coste Energético de ChatGPT

Un Estudio Revelador

En octubre de 2023, un estudio realizado por Alex de Vries arrojó luz sobre el coste energético de las consultas en ChatGPT, estimando que cada interacción consume aproximadamente 3 Wh. Esta cifra se basa en datos proporcionados por Google, que indicaron que el consumo de ChatGPT podría ser diez veces mayor al de una búsqueda promedio en su plataforma.

La Evolución de la Eficiencia Energética

A medida que ha pasado el tiempo, tanto la infraestructura de Google como la de ChatGPT han mejorado significativamente. Esto ha llevado a que las consultas sean más eficientes que en el pasado. Sin embargo, la comparación entre ambos sistemas sigue siendo clave para entender el impacto ambiental de la inteligencia artificial.

Nueva Estimación del Consumo Energético

Una nueva organización sin ánimo de lucro, Epoch AI, ha lanzado un estudio que revalúa este consumo. Según sus conclusiones, las consultas a ChatGPT basadas en el modelo GPT-4o consumirían solo alrededor de 0,3 Wh, lo que representa una disminución drástica respecto a las estimaciones anteriores.

El Método del Cálculo

Los investigadores de Epoch AI utilizaron datos bien conocidos para sus cálculos. Establecieron que cada token en ChatGPT equivale a aproximadamente 0,75 palabras y que procesar un token requiere alrededor de 2 FLOPs. Con base en estos datos y la capacidad energoeficiente de las GPUs actuales, el consumo se ha recalibrado a niveles significativamente más bajos.

Un Consumo Mínimo

Para poner en perspectiva el resultado de 0,3 Wh, esto equivale a menos del consumo de una bombilla LED durante un corto período. Comparando con el consumo promedio de un hogar en EE. UU., que es de 10,500 kWh al año, usar ChatGPT tiene un impacto mínimo en el consumo energético total.

Modelos de Razonamiento y Su Consumo

Si bien la estimación es baja para el modelo GPT-4o, es importante notar que otros modelos de razonamiento, más complejos, requieren mayor consumo energético. Estos modelos todavía son menos utilizados en comparación con el GPT-4o.

Costo del Entrenamiento de Modelos

Los costos energéticos no solo se limitan al uso diario de ChatGPT. Entrenar modelos como GPT-4o ha requerido una intensidad energética notable, alcanzando entre 20 y 25 MW en un período de tres meses, lo que representa un consumo equivalente al de 20,000 hogares en EE. UU.

Retos en el Futuro del Consumo de IA

Aunque el consumo energético de las consultas individuales ha disminuido, el panorama general del uso de inteligencia artificial es preocupante. Las grandes empresas tecnológicas continúan invirtiendo enormes cantidades de recursos para construir centros de datos, que requieren energía significativa para operar. Este crecimiento plantea desafíos importantes sobre la sostenibilidad energética en el futuro.

Deja un comentario