¿Cuánta energía gasta la inteligencia artificial y por qué es un problema?

Domingo 21 de Abril de 2024, 09:54

Los modelos de inteligencia artificial necesitan muchísima electricidad tanto para ser entrenados como para ser utilizados. El medio ambiente es el verdadero perjudicado. ¿Qué están haciendo para intentar resolver este problema?



La inteligencia artificial se utiliza hace décadas. De hecho, está presente en prácticamente todas las áreas de nuestra vida cotidiana: banca, compras online, vehículos, entretenimiento y una lista que podría seguir durante líneas. Pero desde el lanzamiento de GPT de la mano de OpenAI estos algoritmos parecen haber cooptado el mundo tecnológico siendo lo único relevante de la época. El tema es que hay algo de lo que no se habla tanto relacionado a la inteligencia artificial que empieza a ser un problema: la energía que usa.

Si bien los números exactos pueden variar porque depende de muchos factores cuánta energía consuma un algoritmo, se puede desglosar un poco la información y darnos una idea de cómo se consume electricidad en este mundo en promedio. Esta especie de “caja negra” en la actualidad se debe a que las grandes empresas trabajando en estas tecnologías, como OpenAI, Meta o Microsoft, no revelan ese tipo de información, mientras que antes sí lo hacían.

El motivo parece ser claro: a medida que la sociedad y expertos se fueron dando cuenta que esta tecnología afecta notablemente el medio ambiente, las compañías empezaron a quedarse con esa información que los afectaba negativamente.

En el 2022 las especialistas Sasha Luccioni, Sylvain Viguier y Anne-Laure Ligozat publicaron un paper donde estudiaron el consumo de estas tecnologías y ya identificaban el problema que hoy se profundizó: “Entrenar estos modelos requiere importantes recursos computacionales, energía y materiales”, explicaban. Y agregaron: “El progreso en el machine learning tiene un costo para el medio ambiente”.


Cuánta energía se usa en el entrenamiento de los algoritmos de IA

Un detalle que hay que tener en cuenta es la diferencia en el momento en el que está un algoritmo. Una cosa es cuando es entrenado y otra es cuando es utilizado. Entrenarlos gasta una cantidad inmensa de energía. Usarlos menos.

Entrenar un modelo de lenguaje como GPT-3 gasta por hora la misma energía 130 casas en Estados Unidos por año (Depositephotos)
Entrenar un modelo de lenguaje como GPT-3 gasta por hora la misma energía 130 casas en Estados Unidos por año.

Se estima que entrenar un modelo de lenguaje como GPT-3 usa poco menos de 1.300 MWh por hora. Para darnos una idea, es lo que gastan 130 casas en Estados Unidos por año. Otro ejemplo: Netflix consume, por hora de streaming, 0.0008 MWh. Serían, en comparación, más de un millón y medio de horas de streaming.

Lo problemático es que estos números son del gasto que generó GPT-3, que es una versión anterior al modelo que está funcionando actualmente y, se sabe, OpenAI ya está trabajando en una nueva actualización. Probablemente el entrenamiento de estos nuevos modelos gaste todavía más energía que GPT-3.


El gasto de energía en el uso de Energía Artificial

Pero después de entrenar a estos modelos viene el uso. Es decir, usuarios que constantemente les están haciendo consultas o pidiéndoles fotos. Eso, si bien tiene un gasto menor, no significa que sea nulo.

Luccioni y un grupo de colegas hizo un nuevo estudio para determinar este gasto. Para eso hicieron tests en decenas de modelos pidiéndoles diferentes cosas y llegaron a la conclusión de que, en promedio, la generación de texto en promedio equivale a 0.047 kWh cada 1.000 consultas. Siguiendo la comparación de Netflix, eso serían unos 3 minutos y medio de streaming.

Para los modelos que generan imágenes ese número es mucho mayor. En promedio cada 1.000 pedidos estos modelos gastan 2.907 kWh. Cargar un smartphone usa 0.012 kWh. ¿Qué significa esto? Que generar una imagen equivale a casi la misma cantidad de energía que se usa para cargar tu smartphone.


La apuesta a la fusión nuclear

Tiene lógica por qué tanto Sam Altman, fundador de OpenAI, y un grupo de otros expertos están apostando a la fusión nuclear, una técnica que imita las reacciones que ocurren dentro del Sol para producir energía limpia y barata. De hecho, Altman invirtió parte de su fortuna personal en Helion, un emprendimiento que, justamente, trabaja en que podamos usar la fusión nuclear como fuente de energía.

Ojo, hay un problema. Si bien hubo grandes avances sobre la fusión nuclear en los últimos años, muchos científicos consideran que todavía estamos a mucho tiempo de lograr energía a partir de la fusión nuclear a una escala significativa. /TN