Sam Altman, CEO de OpenAI, abordó esta semana inquietudes sobre el impacto ambiental de la inteligencia artificial durante un evento organizado por The Indian Express.
En ese intercambio, Altman sostuvo que las preocupaciones por el uso de agua de la IA son “totalmente falsas” y planteó que ese punto fue real en otro momento, cuando “se usaba enfriamiento evaporativo en centros de datos”.
“Ahora que no hacemos eso, ves estas cosas en internet donde, ‘No uses ChatGPT, son 17 galones de agua por cada consulta (unos 64 litros)’ o lo que sea”, dijo. Para Altman, esa afirmación es “completamente falsa” y “totalmente insana”.
El CEO de OpenAI agregó que ese tipo de mensajes “no tienen conexión con la realidad”. En su intervención, enmarcó la discusión como una circulación de cifras en línea que, según él, no corresponden con el funcionamiento actual.
El líder tecnológico señaló que es “justo” preocuparse por el consumo de energía, aunque aclaró que no por consulta; dijo que el punto es el consumo total, porque “el mundo ahora está usando tanta IA”.
A partir de esa lectura, sostuvo que el mundo necesita “moverse hacia la energía nuclear o eólica y solar muy rápidamente”.
En el encuentro, Altman dijo que no existe un requerimiento legal para que las tecnológicas informen cuánta energía y agua utilizan y que, por ese motivo, científicos han intentado estudiarlo de forma independiente.
Energía por consulta y comparaciones con el uso humano
Durante la conversación, el entrevistador citó un intercambio previo con Bill Gates. Le preguntó si era correcto decir que una consulta a ChatGPT usa el equivalente a 1,5 cargas de batería de iPhone. Altman respondió: “No hay manera de que sea algo cercano a tanto”.
El CEO de OpenAI también afirmó que muchas discusiones sobre el uso de energía de ChatGPT son “injustas”. "La gente habla de cuánta energía se necesita para entrenar modelos IA, pero también se necesita mucha energía para entrenar humanos. Son 20 años de vida incluyendo toda la comida que comés durante ese tiempo antes que seas inteligente", argumentó.
“Pero también lleva mucha energía entrenar a un humano”, dijo Altman. Agregó que implica “como 20 años de vida” y “toda la comida” consumida en ese tiempo, además de un proceso evolutivo amplio para llegar a ese nivel.
Desde su perspectiva, el contraste adecuado es otro: una vez entrenado el modelo, comparar el gasto de energía de responder una pregunta frente a lo que requiere un humano. En esa medición, sostuvo que “probablemente la IA ya se puso a la par” en eficiencia energética.