Tutto ha un costo e quello energetico dell’intelligenza artificiale è un osservato speciale, con i grossi data center che diventano sempre più energivori. Secondo una recente stima dell’Agenzia Internazionale dell’Energia, attualmente i data center di tutto il mondo rappresentano tra l’1 e l’1,5% dell’utilizzo di elettricità a livello mondiale, ma tutta la comunità scientifica è concorde con l’affermare che la rapida diffusione di nuove tecnologie farà aumentare in modo significativo l’utilizzo di energia nel settore.
Un recente documento dell’Università di Washington ha dimostrato che centinaia di milioni di interrogazioni su ChatGPT possono costare circa 1 gigawattora al giorno, equivalente al consumo energetico di 33mila famiglie statunitensi. E anche solo addestrare un chatbot può far consumare tanta elettricità quanta ne consuma un quartiere in un anno. “In confronto, i carichi di lavoro convenzionali del cloud computing, come servizi online, database e streaming video, sono molto meno intensivi dal punto di vista computazionale e richiedono un utilizzo della memoria di ordini di grandezza inferiore” ha spiegato Sajjad Moazeni, professore di ingegneria informatica dell’Università di Washington.
Generi immagini con l’AI, pensaci la prossima volta!
Oggi – al netto di congetture seppur intuibili – le emissioni causate dall’uso dell’AI generativa sono quantificabili grazie ad uno studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University, che ha trovato il modo di calcolare le emissioni di carbonio causate dall’utilizzo di un modello di intelligenza artificiale per diversi compiti.
Il primo risultato vede la generazione di immagine come il lavoro più energivoro delle IA generative. Generare una sola immagine, utilizzando un modello di intelligenza artificiale, richiede la stessa energia necessaria per caricare completamente uno smartphone. La generazione di 1000 immagini con un potente modello di intelligenza artificiale, come Stable Diffusion XL, è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare l’equivalente di 6,6 chilometri di un’utilitaria a benzina.
All’opposto l’utilizzo di un modello di intelligenza artificiale per generare testo richiede un dispendio energetico significativamente inferiore. Creare un testo per 1000 volte consuma solo il 16% della carica completa dello smartphone. In pratica ogni domanda formulata nel prompt della AI generativa, è responsabile, sommata per 1000 volte, di tanta CO2 quanto guidare per 1 metro.
La metodologia dello studio della Carnegie Mellon University si è basata sulla misurazione delle emissioni associate a diverse attività di intelligenza artificiale disponibili sulla piattaforma Hugging Face, come la risposta alle domande, la generazione di testo, la classificazione delle immagini, i sottotitoli e la generazione di immagini, e, in più, eseguendo gli esperimenti su 88 modelli diversi. Per ciascuna attività l’energia utilizzata è stata misurata da uno strumento chiamato Code Carbon, capace di effettuare calcoli osservando l’energia consumata dal computer durante l’esecuzione del modello.
La differenza con altri modelli di AI più piccoli
Il team a scoperto che l’utilizzo di modelli generativi di grandi dimensioni per creare risultati richiedeva un dispendio energetico molto maggiore rispetto all’utilizzo di modelli di intelligenza artificiale più piccoli, usati per compiti specifici. Per esempio, utilizzare un modello generativo per classificare le recensioni dei film in base al fatto che siano positive o negative consuma circa 30 volte più energia rispetto all’utilizzo di un modello ottimizzato creato appositamente per tale compito, afferma lo studio. Il motivo per cui i modelli di intelligenza artificiale generativa utilizzano molta più energia è che cercano di fare più cose contemporaneamente, come generare, classificare e riassumere il testo, invece di un solo compito, come la classificazione.
Un futuro sempre più energivoro
Il boom dell’intelligenza artificiale generativa ha portato le grandi aziende tecnologiche a integrare potenti modelli di intelligenza artificiale in molti prodotti diversi dalla posta elettronica all’elaborazione testi – come ha fatto Microsoft con Copilot in Bing o nella stessa suite Office. “Questi modelli di intelligenza artificiale generativa vengono ora utilizzati milioni se non miliardi di volte ogni singolo giorno” si legge nel paper. La speranza è che la ricerca incoraggi le persone a essere più selettive riguardo all’uso dell’intelligenza artificiale generativa e a optare, ove possibile, per modelli più specializzati e a minore intensità. Sasha Luccioni, a capo del progetto, lancia una suggestione finale: “Se stai facendo un’applicazione specifica, come la ricerca attraverso la posta elettronica, hai davvero bisogno di questi grandi modelli capaci di tutto?”.
Fonte : Wired