Su desarrollo y almacenamiento en centros de datos genera grandes cantidades de dióxido de carbono e impacta de forma negativa en el ambiente.

En general, las características que se brindan acerca de la inteligencia artificial y su vínculo con el ambiente son definidas por la positiva. De hecho, motivos no faltan: entre otros usos, la IA se emplea para la vigilancia de hábitats, la protección de la vida salvaje, el análisis de datos y el reconocimiento de determinados patrones para desarrollar estrategias de adaptación al cambio climático. Sin embargo, también emite grandes cantidades de dióxido de carbono ya que requiere de abundante energía eléctrica y además consume recursos hídricos. Por ejemplo, en su último informe de sostenibilidad, Google afirmó que emitió 14,3 millones de toneladas de gases de efecto invernadero, un 66 por ciento más que en 2020. Por su parte, Microsoft emitió 15,4 millones de toneladas, un 30 por ciento más que a principios de década.

“Uno de los desafíos que presenta la inteligencia artificial es su manutención. Conforme sigan avanzando y asentándose en la mayor extensión de nuestras prácticas, la utilización de la tecnología se incrementará y, con ello, los recursos energéticos que se precisan para que los modelos realicen los billones de cálculos que deben hacer. En este sentido, cabe preguntarse si todo lo que brilla es oro”, señala Daniel Busdygan, docente e investigador de la UNQ y la UNLP, en diálogo con la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes.

En este sentido, los centros de datos de la inteligencia artificial son una de las claves ya que se estima que la mayoría de la electricidad que usan es para alimentar y enfriar los servidores. Otro de los puntos centrales tiene que ver con los procesadores que se utilizan para entrenamiento de modelos de IA.

A diferencia de las unidades de procesamiento central (CPU) clásicas, las unidades de procesamiento de gráficos (GPU) tienen mejor desempeño, pero consumen hasta diez veces más de energía. En este aspecto, los grandes modelos de lenguaje necesitan de miles de GPU que funcionan las 24 horas durante días, semanas o meses.

Además de la refrigeración a través de energía, los centros de datos utilizan agua para que sus equipos no excedan la temperatura adecuada y no se rompan. De esta manera, Microsoft informó que empleó casi 13 mil millones de litros durante 2023, de las cuales 8 mil se evaporaron o consumieron y no pudieron reutilizarse. Por su parte, Google uso alrededor de 8600 millones de litros, pero solo volvió a utilizar cerca del 25 por ciento.

Si bien el panorama expuesto da cuenta del impacto negativo en términos ambientales que tiene la generación, el mantenimiento y la utilización de la inteligencia artificial, todavía resta conocer cifras concretas sobre toda la cadena de suministros que permiten montar los centros de datos en relación al hardware y el software que, además de electricidad y agua, necesitan minerales raros como es el caso del silicio puro, que se emplea en la fabricación de chips.

A pesar de que Google y Microsoft se comprometieron a lograr la huella de carbono neutra para 2030, parece improbable que en seis años disminuyan a cero las emisiones de dióxido de carbono en solo seis años.

“Es claro que la inteligencia artificial se enfoca en la eficiencia y la optimización. La tecnología, en su racionalidad instrumental, busca mejorar y optimizar sus procesos, y para ello, puede hacer que nos convirtamos en objetos. Sin embargo, cada promesa tecnológica conlleva desafíos éticos y políticos que no deben ser desestimados y que deben poseer las regulaciones normativas que se precisen. ¿Por qué el combustible que precisan las máquinas parece no ser un problema? ¿Cuál es el impacto de esto en el cambio climático?”, resalta Busdygan.

Qué dice la IA sobre sí misma

Al ser consultado por la Agencia sobre el tema, el propio ChatGPT afirmó: “Como modelo de inteligencia artificial, mi operación implica un consumo energético que contribuye a la huella de carbono. Esta huella se genera principalmente en el entrenamiento del modelo, la infraestructura de los servidores y las consultas en tiempo real”.

En esta línea, el chatbot de la empresa OpenAI sostuvo: “El entrenamiento de un modelo de lenguaje grande como yo requiere una cantidad significativa de energía computacional, ya que involucra el procesamiento de enormes cantidades de datos. Por otra parte, los servidores donde estoy alojado requieren energía tanto para funcionar como para mantenerse refrigerados”.

Por su parte, Gemini también hizo hincapié en que los modelos de inteligencia artificial también consumen energía durante su funcionamiento cotidiano y destacó dos informes. Por un lado, citó un estudio de 2019 de la Universidad de Massachusetts Amherst donde estimaron que entrenar un modelo de lenguaje grande como GPT-3 genera la misma cantidad de dióxido de carbono que 125 vuelos de ida y vuelta entre Nueva York y Beijing.

A su vez, la aplicación de Google compartió un informe de 2021 de Schneider Electric calculó que la IA consume actualmente alrededor de 4,3 GW de energía a nivel mundial, equivalente al consumo de algunos países pequeños”.

Fuente: Agencia de Noticias Científicas

Deja tu comentario