Intelligenza artificiale
generativa
Costi
energetici in aumento:
ChatGPT sta già
consumando l’energia
di 33mila case
di Rita Lena
Da qualche anno tra gli addetti ai lavori circola la voce che l’Intelligenza
Artificiale (AI) abbia costi energetici troppo alti. Una voce che, all’ultimo
incontro annuale del World Economic Forum a Davos in Svizzera, è stata
ufficialmente confermata, quando Sam Altmann, amministratore delegato (CEO) di
OpenAI, ha ammesso che l’industria
dell’intelligenza artificiale si sta dirigendo verso una crisi energetica.
Altman – si legge in un articolo, pubblicato su Nature, di Kate Crawford della
University of Southern California Annenberg e ricercatrice principale
senior presso Microsoft Research a New York City -
ha avvertito che la prossima ondata di sistemi di intelligenza
artificiale generativa consumerà molta più energia del previsto e che i sistemi
energetici faranno fatica a farcela. "Non c'è modo di arrivarci senza una
svolta", ha detto. Negli ultimi anni si è assistito ad una costante
minimizzazione e negazione dei costi ambientali del settore dell’intelligenza
artificiale ed ora l’ammissione del CEO di OpenAI ha spinto ricercatori,
regolatori e titani del settore a parlare apertamente
dell’impatto ambientale dell’intelligenza artificiale generativa.
Tuttavia, l’insolita presa di coscienza di Altmann non sembra presupporre,
almeno per ora, ad una svolta nella progettazione e a miglioramenti dei sistemi
di intelligenza artificiale per renderli più sostenibili; anzi, Altmann, per
ovviare al problema, pensa di puntare alla fusione nucleare. Un obiettivo che si
spiega con il fatto che nel 2021 ha
investito nella società di fusione Helion Energy Everett di Washington.
Ma per la fusione nucleare i tempi sono lunghi. La maggior parte degli esperti
concorda sul fatto che la fusione nucleare non potrà dare un contributo
significativo alla decarbonizzazione entro la metà del secolo e, nella
fattispecie, si stima che Helion, nelle proiezioni più ottimistiche, riuscirà a
produrre, nel 2029, energia
sufficiente ad alimentare solo 40.000 famiglie medie negli Stati Uniti. Nel
frattempo, si è valutato che
ChatGPT, il chatbot creato da OpenAI a San Francisco (California), stia già
consumando l’energia di 33.000 case. Secondo gli esperti, una ricerca guidata
dall'intelligenza artificiale generativa utilizza da quattro a cinque volte
l'energia di una ricerca web convenzionale e, nel giro di pochi anni, è
probabile che i grandi sistemi di AI avranno bisogno di così tanta energia,
quanto quella di intere
nazioni.
E non è solo energia. I sistemi di intelligenza artificiale generativa
necessitano anche di enormi quantità di acqua dolce per raffreddare i loro
processori e generare elettricità. A West Des Moines, Iowa, dove c’è
un gigantesco cluster, o
insieme di data center che servono
il modello più avanzato di OpenAI, GPT-4, una causa intentata da residenti ha
rivelato che nel luglio 2022, il mese prima che OpenAI finisse di addestrare il
nuovo modello, i data center avevano utilizzato circa il 6% dell'acqua del
distretto. Inoltre, mentre Google e Microsoft preparavano i loro modelli
linguistici Bard e Bing, sono stati registrati, secondo i rapporti ambientali
delle società, picchi importanti nell’uso dell’acqua: rispettivamente aumenti
del 20% e del 34% in un anno. Una ricerca (preprint) su arxiv
suggerisce che, entro il 2027 a livello globale, la domanda di acqua per
l’intelligenza artificiale potrebbe essere la metà di quella del Regno Unito e,
in un altro lavoro (su arxiv), i ricercatori sull’intelligenza artificiale di
Facebook hanno paragonato gli effetti ambientali della ricerca di scala del
settore, a quelli che si avrebbero quando”un’elefante entra in una stanza”.
A questo punto il mondo della ricerca chiede con urgenza
azioni pragmatiche per limitare subito gli impatti ecologici
dell’intelligenza artificiale. Intanto, l’industria del settore potrebbe
utilizzare meno energia costruendo modelli più efficienti e ripensare il modo in
cui progetta ed utilizza i data center. Qualche modello virtuoso già esiste, ad
esempio, il progetto BigScience in Francia che, con il suo modello BLOOM, simile
in dimensioni al GPT-3 di Open-AI,
consuma meno carbonio e ha dimostrato che è possibile costruire modelli meno
energivori. Ma il problema a livello generale esiste e per diverse ragioni, come
ottenere dati accurati e completi sugli impatti ambientali e sapere quali sono i
costi reali dell’intelligenza artificiale generativa. Sono segreti gelosamente
custoditi da aziende poco incentivate a fare
cambiamenti. Le cifre ora a disposizione si basano su studi di
laboratorio condotti da ricercatori e su dati diffusi dai governi locali.
Un problema che ha richiamato l’attenzione di politici e legislatori. Il
1° febbraio, i democratici statunitensi guidati dal senatore Ed Markey del
Massachusetts hanno introdotto l’ Artificial Intelligence Environmental Impacts
Act del 2024 . Il disegno di legge ordina al National Institute for Standards
and Technology di collaborare con il mondo accademico, l’industria e la società
civile per stabilire standard per la valutazione dell’impatto ambientale dell’IA
e per creare un quadro di segnalazione volontaria per gli sviluppatori e gli
operatori dell’IA. Resta incerto se la legislazione verrà approvata.