La inteligencia artificial demanda mucha energía y a medida que sus modelos se vuelven más complejos, sus requisitos de energía pueden aumentar
29.07.2023 • 11:23hs • Innovación
Innovación
Una consulta en ChatGPT consume esta cantidad de energía: tres veces más que en el buscador de Google
La inteligencia artificial (IA) es una tecnología que demanda una gran cantidad de recursos energéticos, tanto para su entrenamiento como para su uso, y cuanto más avanzada sea, más necesita, hasta el punto de que una consulta en ChatGPT consume tres veces más energía que otra hecha en el buscador de Google.
Una de las empresas más destacadas del panorama actual de la IA es OpenAI, creadora del 'chatbot' ChatGPT. Se estima que necesitó hasta 78.437 kWh de electricidad para entrenar el modelo de lenguaje GPT-3, una cifra comparable al consumo de energía de un hogar medio en España 23 años.
Este dato, que comparten desde el Instituto de la Ingeniería de España (IIE), es una muestra del enorme consumo energético que realiza la inteligencia artificial, ya que suele requerir grandes cantidades de datos para su entrenamiento, a la vez que necesita de una gran cantidad de recursos computacionales y energéticos para su funcionamiento.
En esta línea, a medida que los modelos de IA se vuelven más complejos, sus requisitos de energía pueden aumentar. El consumo también se traduce en los litros de agua que se usan para refrigerar los servidores dedicados a alimentar los diferentes productos y sistemas de la IA.
La IA demanda muchos recursos energéticos
Investigadores de las universidades de Riverside y Arlington estimaron que el entrenamiento de GPT-3 en uno de los centros de datos de más avanzados de Microsoft -socio de OpenAI en el desarrollo de la inteligencia artificial- consumió de forma directa 700.000 litros de agua dulce limpia, "suficiente para producir 370 coches BMW o 320 vehículos eléctricos Tesla".
Los centros de datos propios de Google en Estados Unidos, por su parte, consumieron 12.700 millones de litros de agua dulce en 2021 en los procesos de refrigeración de sus equipos informáticos.
ChatGPT requiere de medio litro de agua para responder entre 20 y 50 preguntas
El uso de esta tecnología también tiene un gran consumo. A nivel de refrigeración, una sola conversación en de entre 20 y 50 preguntas con ChatGPT necesita unos 500ml de agua, según el estudio citado.
En caso de que se atienda a la electricidad, una búsqueda de Google consume de media 0,0003 kWh, mientras que una consulta en ChatGPT entre 0,001 y 0,01 kWh, detallan desde el Instituto de la Ingeniería de España.
"Las grandes empresas tecnológicas avanzan motivadas por los beneficios económicos y las demandas del mercado, pero también son cada vez más conscientes del impacto ambiental de sus operaciones y están tomando medidas para abordar este problema", explicó el miembro del Comité de Sociedad Digital del Instituto IIE, José Andrés López de Fez.
Es por esto que, para reducir el consumo de recursos energéticos habría que atender ciestas cuestiones como:
Un diseño de chips más eficiente, una investigación en la eficiencia energética de la IA que además del hardware atienda también a la eficiencia en los algoritmos y las prácticas de entrenamiento de modelos, el empleo de sistemas de energía renovables y neutras en carbono, mejoras en la infraestructura de datos, y políticas de reciclaje de electrónicos y economía circular.