Sai quanta acqua consuma l’intelligenza artificiale? Almeno mezzo litro con appena 5 domande a ChatGPT

ChatGPT: l’Intelligenza Artificiale che beve più acqua di un elefante

L’intelligenza artificiale (IA) ha dimostrato di essere una forza trainante nel mondo della tecnologia, ma un recente studio dell’Università della California ha svelato un lato oscuro legato all’ascesa di questa innovazione. I ricercatori hanno infatti calcolato che porre tra le 5 e le 50 domande a ChatGPT, un famoso prodotto di intelligenza artificiale, equivale a consumare mezzo litro d’acqua nel data center di Microsoft nell’Iowa. Il dato varia in base alla posizione dei server e alla stagione in corso. Il report tiene conto anche dell’acqua usata indirettamente da altre fonti collegate al data center, come la centrale elettrica che lo alimenta.

L’uso dell’acqua da parte delle aziende di informatica è spesso trascurato rispetto al consumo energetico, che ha attirato molta attenzione negli ultimi anni: ad esempio, l’estrazione di criptovalute ha richiesto enormi quantità di energia elettrica. Ad ogni modo, anche l’acqua è una risorsa preziosa, specie per queste nuove tecnologie che devono analizzare enormi quantità di testi prodotti dagli esseri umani. Questa operazione richiede molti calcoli e consuma un’ingente quantità di energia elettrica, che a sua volta produce anche molto calore. Per evitare il surriscaldamento nelle giornate più calde, i data center devono quindi utilizzare l’acqua per raffreddare i loro edifici, che sono grandi come dei magazzini, facendola circolare in una torre di raffreddamento all’esterno.

Un costo ambientale significativo

Lo studio dell’Università della California è nato per valutare l’impatto ambientale dell’elaborazione dell’Intelligenza Artificiale, ispirato dal successo di ChatGPT e altri prodotti simili con particolare riferimento alla sua impronta idrica: si concentra sui data center di Microsoft in Iowa, che ospitano uno dei computer più potenti di Microsoft, dedicato a OpenAI, una famosa organizzazione di ricerca sull’intelligenza artificiale. Questo computer usa oltre 285.000 core di CPU AMD InfiniBand e 10.000 GPU per far funzionare il modello GPT-4 di quarta generazione, uno dei più avanzati al mondo.

Microsoft ha pubblicato il suo ultimo rapporto sull’ambiente e ha ammesso di aver utilizzato molta più acqua nel 2022 rispetto al 2021. Il suo consumo globale di acqua è salito del 34% (quasi 1,7 miliardi di galloni, o l’equivalente di più di 2.500 piscine olimpioniche). Questo aumento è stato attribuito alla sua ricerca sull’IA. Shaolei Ren, un ricercatore dell’Università della California, Riverside ha spiegato che la maggior parte della crescita è dovuta all’IA generativa e alla collaborazione con OpenAI, che possono creare contenuti come ChatGPT:

La maggior parte delle persone non sa quanta acqua e energia ci vogliono per far funzionare ChatGPT. Se non lo sai, non puoi fare nulla per risparmiare le risorse.

I dati di luglio 2022 mostrano che l’uso dell’acqua rimane elevato durante l’estate, con i data center di Microsoft in Iowa che prelevano circa 43 milioni di litri d’acqua, pari al 6% del consumo idrico totale nel distretto, secondo il West Des Moines Water Works. Anche Google e il suo strumento di intelligenza artificiale Bard basato su chat hanno aumentato il consumo d’acqua del 30% nei loro data center statunitensi tra il 2021 e il 2022, secondo i ricercatori.

In questo contesto, va tenuto in debito conto che lo stato dell’Iowa rappresenta un ambiente ideale per ospitare questi server. Qui, per gran parte dell’anno, il clima risulta sufficientemente temperato da permettere un adeguato raffreddamento dei server attraverso la ventilazione naturale dell’edificio. L’impianto inizia a prelevare acqua dalla rete elettrica solo quando la temperatura raggiunge i 29,3 gradi Celsius. Si tratta, quindi, di una situazione destinata a generare ampi dibattiti.

A seguito di tali dati, il colosso Microsoft ha dichiarato di essere già all’opera per misurare l’impronta energetica e di carbonio dell’IA:

Stiamo lavorando su come rendere i grandi sistemi più efficienti, sia nell’addestramento che nell’applicazione. Continueremo a monitorare le nostre emissioni, ad accelerare i progressi aumentando l’uso di energia pulita per alimentare i data center, acquistando energia rinnovabile e compiendo altri sforzi per raggiungere i nostri obiettivi di sostenibilità: essere carbon negative, water positive e zero rifiuti entro il 2030.

Anche OpenAI ha rilasciato un commento sulla vicenda, sostenendo di effettuare ulteriori ricerche sull’uso migliore della potenza di calcolo:

Riconosciamo che la formazione di modelli di grandi dimensioni può essere dispendiosa in termini di energia e acqua e lavoriamo per migliorare l’efficienza.

Seguici su Telegram Instagram | Facebook TikTok Youtube

Fonte: University of CaliforniaMicrosoft – Cornell University

Ti consigliamo anche:

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Facebook