Vai al contenuto

Microsoft e Google, sulle AI è allarme rosso. Acqua ed elettricità, consumi futuri insostenibili

Pubblicato: 30/08/2024 11:18

Le politiche Green prevedono che fra pochi anni nel mondo non si utilizzi più il carbone e che vi sia un passaggio a forme di energia sempre più pulita. Ma ultimamente questo obiettivo sembra allontanarsi. E la “colpa” è delle intelligenze artificiali. Che già nel 2023, con la loro diffusione, secondo i dati raccolti da sole hanno consumato più energia di un Paese come la Nigeria (224 milioni di abitanti) o dell’Irlanda, e più di una media nazione europea come la Croazia. D’altronde, l’allarme sull’impossibilità di sostenere l’attuale sviluppo tecnologico da un punto di vista energetico è stata sottolineata poco tempo fa da uno che se ne intende di sicuro: Elon Musk, il proprietario di Tesla. Che ha fatto notare che se più del 50% del parco auto mondiale fosse elettrico, il mondo non potrebbe produrre abbastanza energia per sostenere sia i veicoli, sia appunto l’innovazione tecnologica. Ecco perché il passaggio all’era “carbon free” ha subito un brusco rallentamento. Secondo una ricerca di Standard & Poors, la dismissione di energia a carbone è stata inferiore del 40% a quanto previsto per il 2023.

Il punto, quindi, è che nonostante i nuovi modelli di GenAI siano stati migliorati dal punto di vista dei consumi, ci troviamo di fronte a un dilemma per ora difficilmente risolvibile. Se vogliamo proseguire sulla strada dell’innovazione tecnologica ai ritmi attuali, andremo incontro a un’inevitabile crisi energetica e alla penuria di risorse, a partire dall’acqua. Per quanto riguarda l’elettricità, uno studio di Medium ha scoperto, per esempio che, solo per l’addestramento di GPT-4, OpenAI ha utilizzato 62.000 megawattora, che corrispondono al fabbisogno energetico di 1.000 famiglie americane in 5-6 anni. I microprocessori H100 di Ndivia, utilizzati in tutto il mondo delle AI, consumano quantità di energia enormi. Ecco perché l’urgenza, ora, è diventata produrre Chip che consumino meno energia. Altrimenti, è l’allarme di molti analisti, si rischia un blocco nello sviluppo delle AI. Che fra poco tempo non sarebbe più sostenibile. Un problema non da poco per molte aziende fra cui Google e Microsoft, le cui quotazioni stanno volando sui mercati proprio grazie ai loro progetti di intelligenza artificiale.

Al problema energetico, poi, si aggiunge quello del consumo d’acqua. Perché le AI, oltre all’elettricità, abbisognano enormi quantità di H2O. E questo potrebbe essere un problema ancora maggiore. Nel 2022, i colossi Google, Microsoft e Meta, come riportava Gabriella Rocco su Repubblica in un articolo del Marzo 2024, hanno consumato oltre 2 miliardi di metri cubi d’acqua per il raffreddamento dei server e per l’utilizzo dell’elettricità. Per esemplificare i consumi, il quotidiano romano sottolineava come ogni singola conversazione con le AI corrisponda al consumo di una bottiglietta d’acqua. Porre tra le venti e le cinquanta domande a ChatGPT equivale a consumarne mezzo litro. “I ricercatori”, sottolineava la giornalista, “riportano allarmati come l’impronta idrica dei modelli di intelligenza artificiale non può più rimanere sotto traccia, ma deve essere affrontata come un’assoluta priorità e come parte degli sforzi collettivi per combattere le sfide idriche globali, prima che sia troppo tardi”.

Continua a leggere su TheSocialPost.it

Ultimo Aggiornamento: 30/08/2024 11:19