A maior parte do treinamento em IA é alimentada por combustíveis fósseis, o que levanta preocupações em relação às mudanças climáticas
Nos últimos anos, a inteligência artificial tem ganhado destaque como uma ferramenta com potencial para impulsionar a sustentabilidade e mitigar os impactos ambientais. Por exemplo, a IA pode ser usada para analisar grandes conjuntos de dados e identificar padrões relacionados ao meio ambiente, como mudanças climáticas, poluição do ar e da água, desmatamento e muito mais. Isso permite uma compreensão mais precisa dos problemas ambientais e ajuda na tomada de decisões para a mitigação dos impactos.
A inteligência artificial pode também otimizar o uso de energia em vários setores, como infraestrutura, manufatura e transporte. Por exemplo, ela pode ajustar automaticamente sistemas de aquecimento, ventilação e ar-condicionado, com base nas condições climáticas e nas necessidades de ocupação, reduzindo o desperdício de energia
No entanto, um dilema emergente coloca em xeque essa perspectiva positiva: a crescente quantidade de energia consumida pelo uso intensivo de IA. O debate agora se concentra em como equilibrar os benefícios da IA com a necessidade urgente de reduzir sua própria pegada de carbono.
Em um artigo recente publicado no jornal The Washington Post, o analista Tim Culpan cita como exemplo o BLOOM, um modelo de linguagem desenvolvido pela startup HuggingFace com base em 176 bilhões de parâmetros de 1,6 terabytes de dados. Um cluster de 384 processadores gráficos Nvidia A100 – GPUs – levou mais de 118 dias para ser processado. O consumo de eletricidade resultante do funcionamento de tantas GPUs por tanto tempo gerou algo em torno de 24,7 toneladas métricas de dióxido de carbono. Esse custo dobra para 50,5 toneladas quando se levam em conta as conexões de rede e o tempo ocioso de todo o sistema.
Culpan observa que treinar um modelo é apenas o começo. De acordo com uma estimativa da Amazon.com, que administra seus próprios servidores de IA, 90% das despesas com a execução de inteligência artificial ocorrem na fase seguinte, quando os usuários consultam o modelo para obter resultados — como pedir receitas de bolo de chocolate ao ChatGPT. O gasto energético da implementação dos dados é difícil de calcular, mas acredita-se que seja da ordem de 10 vezes o necessário na primeira fase de treinamento — o que significa 500 toneladas de CO2, uma emissão comparável a dirigir um carro a gasolina por 1 milhão de quilômetros de distância ou realizar 500 voos entre Nova York e Frankfurt. E uma única consulta em ferramentas como o ChatGPT pode ter uma pegada de carbono quatro vezes maior do que uma pesquisa no Google, de acordo com uma estimativa.
A maior parte do treinamento em IA ainda é alimentada por combustíveis fósseis, o que levanta sérias preocupações em relação às mudanças climáticas. Os data centers que hospedam a infraestrutura de IA consomem enormes quantidades de energia, resultando em emissões significativas de carbono. Com a demanda por IA em alta, a indústria enfrenta o desafio de desenvolver estratégias que maximizem seus benefícios para a sustentabilidade ao mesmo tempo que minimizam seu impacto ambiental.
De acordo com Culpan, uma lição valiosa pode ser extraída do mundo das criptomoedas, em particular o bitcoin. A mineração de bitcoin também é notória por seu alto consumo de energia, porém, ela tem buscado soluções para reduzir seu impacto ambiental. Muitas operações de mineração de bitcoin estão localizadas em regiões de clima frio, onde a abundância de energia renovável, como a Islândia, é aproveitada para alimentar as operações.
Para enfrentar o desafio do consumo energético da IA, especialistas propõem uma série de medidas. O monitoramento e a otimização do consumo de energia durante o treinamento de IA, o uso de hardware energicamente eficiente e a reutilização de modelos treinados são citadas como estratégias fundamentais.
Neste artigo da consultoria Gartner, a analista Kristin Moyer observa que os “data centers onde a IA é treinada já representam cerca de 2% de todo o uso de eletricidade nos Estados Unidos, consumindo de 10 a 50 vezes mais energia por área útil do que um típico edifício comercial de escritórios”. Nesse cenário, tornar a própria IA mais amigável para o meio ambiente é um componente-chave de qualquer programa de tecnologia sustentável.
“Para garantir uma abordagem mais ecologicamente sustentável no desenvolvimento de IA, é essencial monitorar de perto o consumo de energia durante os processos de aprendizado de máquina e interromper prontamente o treinamento da IA quando as melhorias se estagnarem e não justificarem mais os custos contínuos”, diz Moyer. “Além disso, reutilizar modelos treinados existentes e ajustá-los conforme necessário pode reduzir o uso redundante de energia. A incorporação de hardware e equipamentos de rede mais eficientes em termos de energia também contribui para práticas de IA mais sustentáveis, alinhando o desenvolvimento tecnológico com metas de sustentabilidade.”
Neste outro artigo, publicado na Harvard Business Review, os autores Ajay Kumar e Tom Davenport listam uma série de recomendações para tornar a IA generativa mais sustentável. Uma das sugestões é usar essa tecnologia de modo mais sensato. “Seja criterioso ao usar IA generativa. As ferramentas de aprendizado de máquina e processamento de linguagem natural são revolucionárias para previsões e problemas de saúde relacionados à medicina. Eles são ótimos para prever perigos naturais, como tsunamis, terremoto etc. Esses são aplicativos úteis, mas ferramentas apenas para gerar postagens em blogs ou criar histórias divertidas podem não ser o melhor uso para essas ferramentas de computação pesada. Podem estar a esgotar mais a saúde da Terra do que a ajudar a sua população.”