SCIENZA E RICERCA
Come ridurre l'impronta ecologica degli esperimenti di intelligenza artificiale
La crisi climatica ci impone, e sarebbe bene lo facesse in modo deciso anche politicamente, di controllare le emissioni di anidride carbonica in atmosfera. Vale per i grandi emettitori, vale per le grandi aziende ma un senso etico la fa valere anche per le piccole azioni quotidiane. Cercare di ridurre la nostra carbon footprint, cioè l’impronta che lasciamo con le emissioni di gas serra, è un obiettivo che dev’essere perseguito sia a livello macro che a livello micro, cioè di singoli cittadini. Fare delle azioni che riducono l’impronta ecologica non cambierà di certo il mondo, ma aiuta ad avere una consapevolezza su ciò che ci sta accadendo.
La scienza oramai da molti anni si interroga su come fare, oltre che su quali possano essere le conseguenze della nostra disattenzione nei confronti della crisi climatica.
Le emissioni dell’IA
C’è un comparto, anche scientifico, che negli ultimi anni è cresciuto a dismisura. Parliamo del machine learning e dell’intelligenza artificiale che a vista d’occhio si fanno sempre più sofisticati.
Spesso ci siamo chiesti com’è possibile rendere equa l’intelligenza artificiale, se questa può essere neutra o se addirittura può aiutare a conoscere in anticipo l’esito delle guerre.
Quello che invece ci chiediamo ora è se l’IA può essere sostenibile. Per rispondere a questa domanda dobbiamo rifarci ad un interessante studio realizzato da Jesse Dodge e rilanciato da Nature. La ricerca è ancora in pre-print ma fornisce un quadro interessante, utile a misurare l'intensità del carbonio del software utilizzato e si propone di misurare le emissioni di carbonio unendo i dati sulla posizione e sul tempo per unità di energia.
“ i ricercatori hanno calcolato l’impronta ecologica di una serie di modelli nei data center di cloud computing in vari stati
Insomma, per dirla in modo più semplice, i ricercatori hanno calcolato l’impronta ecologica di una serie di modelli nei data center di cloud computing in vari stati.
Questo studio è utile perché la velocità con cui gli esperimenti di machine learning stanno crescendo impone una riflessione anche a livello climatico e non solo etico e tecnologico.
I ricercatori hanno valutato un “pacchetto” di approcci volti alla riduzione delle emissioni sulla piattaforma di calcolo cloud di Microsoft Azure, come l’utilizzo di istanze cloud in diverse aree geografiche, l’utilizzo di servizi cloud in diversi momenti della giornata o la sospensione delle istanze cloud quando l'intensità di carbonio è superiore a una determinata soglia.
Le zone geografiche
La questione delle aree geografiche sembra essere fondamentale e i ricercatori stessi hanno riscontrato grandi differenze nelle emissioni tra diversi luoghi. “Nelle zone più efficienti - ha dichiarato Desse a Nature - sono state prodotte circa un terzo delle emissioni di quelle meno efficienti”. Un dato interessante anche perché fino ad ora non c’erano stati strumenti utili ad analizzare le emissioni di esperimenti di intelligenza artificiale basati sul cloud. Il team di ricerca, al cui interno c’erano anche ricercatori di Microsoft, ha monitorato consumo di elettricità durante il funzionamento di 11 diversi modelli di intelligenza artificiale comuni. Tra questi ad esempio il modello linguistico alla base di Google Translate o gli algoritmi che etichettano automaticamente le immagini. Una volta uniti tutti questi dati, gli scienziati hanno realizzato delle stime di come le emissioni delle reti elettriche che alimentano 16 diversi server cloud di Microsoft Azure sono cambiate nel tempo, in modo da calcolare il consumo energetico diviso anche per luoghi.
I risultati del lavoro, che ricordiamo essere ancor in pre-print, sono stati interessanti. In primo luogo hanno scoperto come uno stesso modello di intelligenza artificiale comune a data center negli Stati Uniti e in Germania, il BERT, ha emesso 22-28 chilogrammi di anidride carbonica a seconda del periodo dell'anno. Un dato che è risultato essere più del doppio delle emissioni generate facendo dallo stesso esperimento in Norvegia, che ottiene la maggior parte della sua elettricità dall'energia idroelettrica, o dalla Francia, che si basa principalmente sull'energia nucleare.
Gli orari
Oltre alla zona poi, è importante anche l’orario in cui avvengono questi “esperimenti”. Dallo studio emerge come usare l'IA a Washington durante la notte, cioè quando l'elettricità proviene dall'energia idroelettrica, ha portato a emissioni inferiori rispetto a ciò che succede durante il giorno.
I risultati dello studio sono utili sia per cercare di indirizzare verso data center più sostenibili, sia ripensare il loro stesso utilizzo. Si potrebbero infatti adottare strategie flessibili che consentirebbero l'avvio e l'arresto delle esecuzioni di machine learning nel momento in cui queste dovessero avere una più bassa impronta di carbonio.
Un monito però che arriva dagli autori dello studio è quello sulla trasparenza. Secondo gli scienziati le aziende tecnologiche che eseguono i più grandi esperimenti di IA dovrebbero avere una più alta responsabilità e, oltre naturalmente a cercare di minimizzare la loro impronta, dovrebbero anche essere più trasparenti per quanto riguarda la divulgazione delle loro emissioni.
L’intelligenza artificiale continuerà a crescere a grandi velocità, gli esperimenti e il suo utilizzo saranno sempre più impattanti anche per il nostro clima, per questo è utile iniziare a studiare azioni che possano servire a ridurre la loro carbon footprint.