Sam Altman reveló el verdadero gasto energético de la IA: ¿cuánto consume consultar a ChatGPT?

Sábado 06 de Diciembre de 2025, 17:56

Sam Altman reveló el verdadero gasto energético de la IA: ¿cuánto consume hacerle una pregunta a ChatGPT?



La irrupción de las herramientas de IA generativa trajo beneficios a la vida cotidiana de las personas: desde potenciar la creatividad hasta ayudar con tareas digitales que antes llevaban horas, los chatbots y modelos de lenguaje revolucionaron la forma en que trabajamos, estudiamos y producimos contenido.

Sin embargo, esa misma expansión abrió discusiones profundas sobre la propiedad intelectual de los contenidos producidos por algoritmos, el impacto en el sector laboral y, sobre todo, el consumo energético de los servidores y centros de datos que alimentan y sostienen esta tecnología.

Sam Altman, CEO de OpenAI, se metió en esta discusión pública y reveló datos concretos sobre el gasto real de cada consulta al chatbot de su empresa, ChatGPT.

Cuál es el verdadero consumo de agua de ChatGPT.

Cuánta electricidad implica una consulta al chatbot

Altman explicó que una interacción promedio con ChatGPT demanda 0,34 vatios-hora, un nivel de consumo comparable al gasto de un horno encendido por un poco más de un segundo o de una lamparita en funcionamiento durante un par de minutos.

Aunque la cifra parece mínima vista de manera aislada, sirve como referencia concreta para dimensionar el esfuerzo energético que necesita cada proceso del modelo.

Junto con la electricidad, también interviene el uso de agua destinada a la refrigeración de los centros de datos. Según Altman, cada consulta requiere unos 0,00032176 litros, aproximadamente una quinceava parte de una cucharadita.

Cuando esos números se multiplican por miles de millones

Las métricas adquieren otra dimensión al considerar el tráfico diario de la plataforma. ChatGPT procesa alrededor de 2500 millones de solicitudes por día, lo que equivaldría a más de 804.000 litros cada 24 horas

El dato permite entender la razón por la que lo que cuesta mantener en funcionamiento a la IA empieza a ser un tema central en la discusión tecnológica. La expansión de modelos cada vez más grandes, y su integración en aplicaciones masivas, incrementan la presión sobre centros de datos que ya operan al límite de eficiencia.

El objetivo: modelos más eficientes y sustentables

Altman señaló que uno de los desafíos inmediatos es desarrollar sistemas capaces de administrar mejor sus recursos. La meta es lograr modelos que requieran menos energía por consulta y que puedan funcionar sobre hardware y centros de datos diseñados para consumir menos y refrigerarse con mayor eficacia.

El planteo no apunta solo al futuro de OpenAI, sino a un escenario en el que la inteligencia artificial forma parte del día a día en trabajo, educación, producción de contenidos y servicios públicos.

Entender su costo energético es un paso necesario para anticipar cómo crecerá esta tecnología y qué herramientas necesitará la industria para reducir su impacto. /TN