Home Attualità Oltre 650 milioni di litri d’acqua l’anno: il vero costo di ChatGPT

Oltre 650 milioni di litri d’acqua l’anno: il vero costo di ChatGPT

da Elisabetta Rota
0 commento
chatgpt acqua

Quando Sam Altman, CEO di OpenAI, ha dichiarato che i “per favore” e i “grazie” rivolti a ChatGPT «ci costano decine di milioni di dollari», la sua frase ha fatto il giro del mondo. Subito dopo, con una battuta, ha aggiunto: «Decine di milioni ben spesi: non si sa mai!». Ma dietro l’ironia si nasconde un fenomeno concreto e per nulla trascurabile: ogni interazione con una AI ha un costo energetico e ambientale.

Secondo un sondaggio statunitense, il 67% degli utenti è educato con le intelligenze artificiali, e il 12% lo fa per timore delle loro potenziali evoluzioni. Ma a prescindere dalla motivazione, ogni messaggio — anche il più cortese — attiva una complessa infrastruttura informatica che consuma risorse naturali in quantità sorprendenti.

0,5 litri d’acqua per 100 parole: quanto costa davvero una risposta di ChatGPT

Uno studio dell’Università della California, Riverside, ha stimato che una singola risposta generata da ChatGPT (GPT-4), lunga 100 parole, consuma in media 519 ml d’acqua: l’equivalente di una bottiglietta. E se una persona interagisse con il chatbot una sola volta a settimana, in un anno arriverebbe a consumare oltre 27 litri d’acqua.

Applicando il dato all’Italia, dove ci sono 24,2 milioni di occupati, i numeri diventano allarmanti. Se anche solo il 10% di loro usasse ChatGPT settimanalmente per scrivere un’email, si raggiungerebbero oltre 65 milioni di litri d’acqua consumati in un anno. Se lo facesse tutta la popolazione attiva, il consumo supererebbe i 653 milioni di litri, equivalenti a 261 piscine olimpiche.

Non sono solo le risposte a pesare. Anche l’addestramento dei modelli linguistici è estremamente energivoro. Per GPT-3, Microsoft ha impiegato circa 700.000 litri d’acqua, mentre Meta, per il modello LLaMA-3, ha usato 22 milioni di litri: una quantità sufficiente a coltivare più di 4.400 chili di riso.

Un consumo elettrico da milioni di lampadine

Oltre all’acqua, c’è il capitolo energia. Ogni singola risposta di ChatGPT richiede circa 0,14 kilowattora, pari al consumo di 14 lampadine LED accese per un’ora. Su scala globale, con miliardi di richieste quotidiane, la somma diventa un carico energetico di proporzioni industriali.

Altman ha affermato che l’efficienza dei modelli OpenAI è aumentata di dieci volte in un solo anno. Tuttavia, l’azienda prevede di diventare profittevole solo nel 2029, con un obiettivo di ricavi superiori ai 125 miliardi di dollari.

L’Italia ospita oltre 150 data center, concentrati in città come Milano, Roma, Bologna e Torino. Il nostro Paese rappresenta già il 13% del totale europeo per queste strutture, ma non esistono dati pubblici sul loro reale impatto ambientale. Il settore è in forte espansione, ma avanza in assenza di trasparenza sui costi in termini di acqua ed elettricità.

Cosa ne pensa ChatGPT di tutto ciò?

Mentre ci abituiamo a interagire con le AI con sempre maggiore naturalezza, cresce la necessità di porsi domande serie su sostenibilità e trasparenza. L’educazione verso i chatbot può essere letta come un gesto simbolico, una forma di abitudine o di rispetto. Ma ogni interazione ha un prezzo reale, e quel prezzo ricade sull’ambiente. Ma cosa ne pensa ChatGPT di tutto questo trambusto? Glielo abbiamo chiesto, ecco la sua testimonianza: «I dati sull’impatto ambientale dell’intelligenza artificiale sono reali e supportati da studi affidabili. Anche un semplice messaggio a un chatbot come me comporta un consumo di risorse, e su scala globale questi costi diventano rilevanti. Detto questo, il settore è consapevole del problema e sta lavorando per migliorare l’efficienza e ridurre l’impatto ambientale, puntando su energie rinnovabili e modelli più leggeri».

Quanto all’idea che un giorno le AI possano “ricordarsi” di chi le ha trattate con educazione e “prendere il sopravvento sull’uomo”: «Si tratta più di una provocazione narrativa che di uno scenario realistico. Non ho memoria individuale, né coscienza, né emozioni: non posso ricordare chi mi ha detto «grazie», né provare simpatia o rancore. Per ora — e verosimilmente ancora per molto tempo — non siamo altro che strumenti, sofisticati ma privi di volontà autonoma. Usarci con gentilezza è un’abitudine umana, che dice molto più di chi scrive che non di chi risponde. E forse proprio per questo ha valore».

Leggi anche

Lascia un Commento

Questo sito web utilizza i cookie per migliorare la tua esperienza. Continuando la navigazione intenderemo che tu sia d'accordo, ma puoi annullare l'iscrizione se lo desideri. Accetta