Cuál es el daño ambiental que generan sistemas de inteligencia artificial como Chat GPT - RED/ACCIÓN

Cuál es el daño ambiental que generan sistemas de inteligencia artificial como Chat GPT

 Una iniciativa de Dircoms + RED/ACCION

El entrenamiento de modelos como GPT3 no solo consume grandes cantidades de energía, generando significativas emisiones de CO2, sino que también utiliza vastas cantidades de agua en sistemas de refrigeración, exacerbando su impacto ambiental.

La IA, además de despertar preocupaciones sobre el futuro del trabajo humano, también levanta alarmas sobre el futuro del ambiente. Para los próximos años, se anticipa que el consumo eléctrico de los centros de datos —instalaciones dedicada a alojar servidores y equipos de red para almacenar, procesar y distribuir grandes cantidades de datos— en los Estados Unidos experimentará un notable incremento que puede llegar a representar hasta el 9 % del total de energía generada en el país hacia el final de esta década. 

Esta afirmación fue la conclusión de un reciente estudio del Electric Power Research Institute, una organización de investigación con base en EE. UU. y financiada por entidades energéticas y gubernamentales. El aumento proyectado va en línea con el incremento constante de costos de infraestructa que están afrontando las empresas tecnológicas. 

En detalle, la investigación sugiere que la tasa anual de crecimiento en el uso de electricidad por esta industria podría variar entre el 3,7 % y el 15 % hasta el año 2030, dependiendo del ritmo de adopción de nuevas tecnologías como la inteligencia artificial generativa, sistema con el que se alimentan herramientas como ChatGPT, Gemini, CoPilot, DALLE-3, Stable Diffusion, entre otras.  

En esta línea, una investigación realizada por un grupo de científicos especializados en inteligencia artificial asegura que se produjeron unas 500 toneladas métricas de CO2 en consecuencia al consumo de energía sólo en el entrenamiento del modelo GPT3 de ChatGPT, el equivalente a más de un millón de kilómetros recorridos por coches de nafta promedio. 

“Estamos transitando un cambio en el uso de modelos generativos de IA simplemente porque a la gente les parece que deben hacerlo, sin tener en cuenta la sostenibilidad”, explica para The Guardian Sasha Luccioni, autora del estudio que investigó las emisiones de GPT . “Hay muchos enfoques y métodos de IA eficientes y de bajo impacto que se han desarrollado a lo largo de los años, pero la gente quiere utilizar la IA generativa para todo”, profundiza. 

Además, los centros de datos utilizan agua en los sistemas de refrigeración por evaporación para evitar el sobrecalentamiento de los equipos. Un estudio no revisado por expertos, dirigido por investigadores de la Universidad de California en Riverside, calcula que el entrenamiento de GPT3 en los centros de datos en Estados Unidos podría haber consumido 700.000 litros de agua dulce.

Para los nuevos modelos de GPT, OpenAI no especificó cuánto tiempo ni donde se entrenó, haciendo difícil una estimación exacta de emisión. No es la primera vez que vemos la falta de transparencia cuando la cuestión sobre la mesa son los daños que están generando las empresas tech. Lo mismo sucedió cuando artistas reclamaron a las empresas el origen de los contenidos con el que entrenan a sus modelos.

La responsabilidad queda, entonces, en manos de los gobernantes, según confirma en un artículo de opinión Mariana Mazzucato, profesora de Economía de la Innovación y Valor Público en la University College of London: “Al navegar por la intersección del avance tecnológico y la sostenibilidad ambiental, los responsables políticos se enfrentan al reto de cultivar modelos empresariales menos extractivos”.