Il dilemma ambientale dell’intelligenza artificiale e dei data center: bilanciare innovazione e impronta di carbonio

0
218

In tutto il mondo, i server di dati ronzano, consumando sia megawatt che preziose risorse naturali per dare vita al nostro mondo digitale.

I circa 8.000 data center del pianeta rappresentano il fondamento della nostra esistenza online e si espanderanno ulteriormente con l’avvento dell’intelligenza artificiale. Tuttavia, la rapida crescita del settore IT ha sollevato preoccupazioni circa il suo impatto ambientale.

La ricerca stima che entro il 2025 il settore IT potrebbe consumare fino al 20% di tutta l’elettricità prodotta ed emettere fino al 5,5% delle emissioni di carbonio mondiali. Ciò pone una domanda reale e, per alcuni, sempre più urgente sull’impronta di carbonio del settore mentre startup e aziende cercano di mettersi al passo con gli ultimi progressi tecnologici della Silicon Valley.

La sfida dell’intelligenza artificiale e dei data center

Arun Iyengar, CEO di Untether AI, un’azienda specializzata nella produzione di chip impegnata a rendere l’intelligenza artificiale più efficiente dal punto di vista energetico, ha sottolineato l’importanza di affrontare l’impatto ambientale dell’intelligenza artificiale. Ha dichiarato: “Il vaso di Pandora è aperto. Possiamo utilizzare l’intelligenza artificiale in modi che migliorano le esigenze climatiche, oppure possiamo ignorare le esigenze climatiche e ritrovarci ad affrontare le conseguenze tra un decennio circa in termini di impatto”.

La trasformazione dei server di dati mondiali verso l’intelligenza artificiale è già in corso e viene descritta come un “punto di svolta irripetibile nel campo dell’informatica”. Tuttavia, la portata di questa trasformazione è enorme e comprende sia la formazione che l’implementazione dell’intelligenza artificiale.

Il costo ambientale della formazione sull’intelligenza artificiale

La creazione di strumenti di intelligenza artificiale generativa come GPT-4 o Palm2 di Google può essere suddivisa in due fasi chiave: formazione e inferenza. L’addestramento dei modelli di intelligenza artificiale è un processo ad alta intensità energetica. Nel 2019, i ricercatori dell’Università del Massachusetts Amherst hanno scoperto che l’addestramento di un singolo modello di intelligenza artificiale potrebbe emettere l’equivalente di anidride carbonica di cinque automobili nel corso della loro vita.

Uno studio più recente di Google e dell’Università della California, Berkeley, ha rivelato che l’addestramento GPT-3 ha prodotto 552 tonnellate di emissioni di carbonio, equivalenti alla guida di un veicolo passeggeri per 1,24 milioni di miglia (2 milioni di chilometri). Il modello di ultima generazione di OpenAI, GPT-4, viene addestrato su un numero di parametri circa 570 volte maggiore rispetto a GPT-3, indicando la crescente domanda di energia man mano che i modelli di intelligenza artificiale diventano più potenti e onnipresenti.

Nvidia, un importante produttore di chip AI, fornisce processori noti come GPU (Graphics Processing Units) indispensabili per l’addestramento dei modelli AI. Sebbene le GPU siano più efficienti dal punto di vista energetico rispetto ai chip tipici, consumano comunque una notevole quantità di energia.

La sfida della distribuzione dell’intelligenza artificiale

L’altro lato dell’intelligenza artificiale generativa è l’implementazione, o inferenza, che prevede l’utilizzo del modello addestrato per identificare oggetti, rispondere a istruzioni di testo o eseguire altre attività. L’implementazione non richiede necessariamente la potenza di calcolo dei chip Nvidia, ma il consumo energetico cumulativo derivante da innumerevoli interazioni nel mondo reale può superare l’energia utilizzata nell’allenamento.

“L’inferenza sarà ancora più un problema ora con ChatGPT, che può essere utilizzato da chiunque e integrato nella vita quotidiana attraverso app e ricerche sul web”, ha affermato Lynn Kaack, assistente professore di informatica alla Hertie School di Berlino.

Impegni aziendali per l’efficienza energetica

Le principali società cloud, come Amazon Web Services e Microsoft, si sono impegnate a essere più efficienti dal punto di vista energetico. Amazon Web Services si è impegnata a raggiungere la zero emissioni di carbonio entro il 2040, mentre Microsoft punta a raggiungere lo status di carbon-negative entro il 2030. Prove recenti suggeriscono che queste aziende stanno prendendo sul serio i propri impegni.

Secondo l’International Energy Agency, tra il 2010 e il 2018, il consumo energetico globale dei data center è aumentato solo del 6%, nonostante un aumento del 550% dei carichi di lavoro e delle istanze di elaborazione.

La prospettiva della Silicon Valley

Alcuni leader della Silicon Valley ritengono che le discussioni sull’attuale impronta di carbonio dell’intelligenza artificiale sottovalutino il suo potenziale rivoluzionario. Sostengono che l’implementazione di massa dell’intelligenza artificiale e di un’elaborazione più veloce ridurrà in definitiva la necessità di accedere ai data center, portando a miglioramenti dell’efficienza energetica.

Il CEO di Nvidia Jensen Huang ha dichiarato: “In futuro, ci sarà un piccolo modello che si troverà sul tuo telefono e il 90% dei pixel verrà generato, il 10% verrà recuperato, invece del 100% recuperato, e così tu risparmieremo (energia).”

Sam Altman di OpenAI immagina che i superpoteri dell’intelligenza artificiale trasformeranno positivamente il futuro, affermando: “Penso che una volta che avremo una superintelligenza davvero potente, affrontare il cambiamento climatico non sarà particolarmente difficile. Questo illustra quanto dovremmo sognare in grande”.


Nel profondo…
Certo. Jensen Huang si riferisce al concetto di compressione neurale. La compressione neurale è una tecnica che riduce le dimensioni di un modello di rete neurale senza influenzarne significativamente l’accuratezza. Questo può essere fatto rimuovendo le informazioni ridondanti dal modello o rappresentando il modello in modo più compatto.

Nel contesto degli smartphone, la compressione neurale può essere utilizzata per ridurre il consumo energetico dei modelli di riconoscimento delle immagini. Questo perché la maggior parte del consumo energetico di un modello di riconoscimento delle immagini è dovuto al calcolo richiesto per recuperare i pixel dalla memoria. Generando il 90% dei pixel sul telefono, la quantità di calcoli richiesti viene notevolmente ridotta, con conseguente risparmio energetico.

La compressione neurale è una tecnica che riduce le dimensioni di un modello di rete neurale senza influenzarne significativamente l’accuratezza. Questo può essere fatto rimuovendo le informazioni ridondanti dal modello o rappresentando il modello in modo più compatto.

Sono disponibili diverse tecniche di compressione neurale, ma alcune delle tecniche più comuni includono:

  • Quantizzazione:  questa tecnica riduce il numero di bit utilizzati per rappresentare i pesi e le attivazioni del modello. Ad esempio, un numero a virgola mobile a 32 bit può essere rappresentato utilizzando 8 bit con solo una piccola perdita di precisione.
  • Sparsità:  questa tecnica rimuove le connessioni ridondanti dal modello. Questo può essere fatto identificando le connessioni che hanno un peso ridotto o che non vengono utilizzate molto spesso.
  • Distillazione del modello:  questa tecnica crea un modello più piccolo equivalente a un modello più grande. Questo viene fatto addestrando un modello più piccolo a imitare il comportamento di un modello più grande.

La compressione neurale è un campo in rapida evoluzione e nuove tecniche vengono sviluppate continuamente. Con il miglioramento di queste tecniche, è probabile che la compressione neurale diventerà ancora più ampiamente utilizzata negli smartphone e in altri dispositivi mobili.

Ecco alcuni dei vantaggi della compressione neurale per i telefoni cellulari:

  • Consumo energetico ridotto:  le reti neurali sono computazionalmente costose, quindi ridurne le dimensioni può portare a risparmi significativi nel consumo energetico. Ciò è particolarmente importante per i telefoni cellulari, che hanno una durata della batteria limitata.
  • Prestazioni migliorate:  la compressione neurale può anche migliorare le prestazioni delle reti neurali sui telefoni cellulari. Questo perché i modelli più piccoli possono essere elaborati più rapidamente.
  • Maggiore flessibilità:  la compressione neurale può rendere le reti neurali più flessibili e adattabili a diversi compiti. Questo perché i modelli più piccoli sono più facili da distribuire e aggiornare.

Nel complesso, la compressione neurale è una tecnologia promettente che ha il potenziale per migliorare significativamente le prestazioni, l’efficienza e la flessibilità delle reti neurali sui telefoni cellulari.

Ecco alcuni esempi specifici di come viene utilizzata la compressione neurale nei telefoni cellulari:

  • Riconoscimento delle immagini:  la compressione neurale viene utilizzata per ridurre le dimensioni dei modelli di riconoscimento delle immagini. Ciò consente agli smartphone di eseguire attività di riconoscimento delle immagini in modo più efficiente e con un minore consumo energetico.
  • Elaborazione del linguaggio naturale:  la compressione neurale viene utilizzata per ridurre le dimensioni dei modelli di elaborazione del linguaggio naturale. Ciò consente agli smartphone di eseguire attività di elaborazione del linguaggio naturale come il riconoscimento vocale e la traduzione automatica in modo più efficiente.
  • Visione artificiale:  la compressione neurale viene utilizzata per ridurre le dimensioni dei modelli di visione artificiale. Ciò consente agli smartphone di eseguire attività di visione artificiale come il rilevamento di oggetti e il riconoscimento dei volti in modo più efficiente.

L’uso della compressione neurale nei telefoni cellulari è ancora nelle fasi iniziali, ma è un campo in rapida crescita. Con il miglioramento delle tecniche di compressione neurale, è probabile che diventeranno ancora più ampiamente utilizzate negli smartphone e in altri dispositivi mobili.


Conclusione

La rapida crescita dell’intelligenza artificiale e dei data center rappresenta una sfida ambientale critica. Sebbene l’intelligenza artificiale offra immense promesse per la risoluzione di problemi complessi, compreso il cambiamento climatico, i suoi processi di formazione e implementazione ad alta intensità energetica sollevano preoccupazioni sulle emissioni di carbonio e sul consumo di risorse. Mentre le aziende e le startup corrono per sfruttare il potenziale dell’intelligenza artificiale, c’è un urgente bisogno di trovare un equilibrio tra innovazione e sostenibilità. Mentre i principali attori si stanno impegnando per l’efficienza energetica, è fondamentale che l’intero settore affronti l’impatto ambientale dell’intelligenza artificiale in modo completo. Trovare un equilibrio tra progresso tecnologico e responsabilità ambientale è una sfida complessa che richiede cooperazione globale, innovazione e un impegno condiviso per salvaguardare il nostro pianeta per le generazioni future.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.