Aumentare la potenza di calcolo e ridurre i consumi di energia: l’equazione è semplice (sulla carta) e al tempo stesso materia assai complessa quando si tratta di trovare la soluzione giusta per scaricarla a terra. La richiesta di capacità di elaborazione per allenare i modelli dell’intelligenza artificiale generativa e per implementare e alimentare le applicazioni di AI è in progressivo aumento (secondo le rilevazioni dell’AI Now Institute siamo al raddoppio ogni sei mesi) ed è ragionevole pensare che continuerà a crescere. Non di meno, i data center sono già oggi responsabili fra l’1,5% e il 2% del fabbisogno globale di elettricità (lo dice l’AIEA, l’Agenzia Internazionale dell’Energia) e anche questa percentuale è destinata a lievitare negli anni a venire. Contenere i costi e l’impatto ambientale dei sistemi di High Performance Computing è dunque un obbligo condiviso per l’industria tecnologica e va per l’appunto in questa direzione la strategia di uno dei principali fornitori di infrastruttura per questo settore, vale a dire Lenovo. Il suo vanto? I sistemi di raffreddamento a liquido Neptune di sesta generazione, in grado di tagliare i consumi delle server farm fino al 40%.
L’impatto della Gen AI sulle GPU
Alessandro de Bartolo, Country General Manager e Amministratore Delegato della divisione Infrastructure Solutions Group del produttore cinese evidenzia come lo scenario a cui fare riferimento rifletta una serie di fattori fra loro convergenti, partendo dai maggiori fabbisogni imposti per interrogare una Gen AI per arrivare alla richiesta sempre crescente di elaborazione dati e capacità computazionale, dal fatto che si sta andando verso i limiti fisici delle GPU e delle CPU alla correlata necessità di miniaturizzare i sistemi per ottimizzare gli spazi de data center. Per dare una vaga idea di quanto impatti la potenza e la densità di calcolo necessaria per lo sviluppo dei modelli di intelligenza artificiale generativa può probabilmente bastare un dato, frutto delle stime di Goldman Sachs e legato a un’operazione ormai comune a milioni di persone sul pianeta: ogni “query” effettuata in ChatGpt richiede una quantità di energia quasi dieci volte superiore rispetto a una classica interazione con il motore di ricerca Google. L’AI che sfrutta i linguaggi di grande formato richiede dunque hardware sempre più “energivoro” (e nel conteggio dei consumi non va dimenticata la sempre maggiore pervasività dei servizi digitali) e apre il fronte a diverse nuove sfide, compresa quella di gestire l’incremento di calore proveniente dalle unità di elaborazione grafica che sostengono i carichi di lavoro. L’energia richiesta dalle GPU, infatti, è da cinque a dieci volte superiore rispetto a quella assorbita dalle CPU (a causa del numero maggiore di transistor integrati) e anche il processo di miniaturizzazione dei componenti, che ne aumenta ulteriormente la densità di potenza, comporta una maggiore generazione di calore all’interno dei sistemi dove sono installati. E da qui l’impiego di più corrente elettrica per raffreddare le sale macchine.
Costi e consumi di energia: verso un modello sostenibile
Una delle sfide con la quale misurarsi, spiega il manager al Sole24ore.com, “è distribuire il luogo dove si elabora il dato e quindi saper gestire workload che richiedono potenza elaborativa, alimentazione e raffreddamento diversi”. Il paradigma dell’edge computing, insomma, gioca un ruolo importante nella partita che deve portare i data center a essere più sostenibili e in tal senso la visione di Lenovo guarda a un futuro (molto prossimo) in cui l’infrastruttura a supporto AI sarà ibrida, fra spazi ad alta densità di calcolo (i data center) e luoghi all’edge dove elaborare i dati in loco. Il presente, per contro, richiede interventi sostanziali dentro le sale macchine, “la componente più energivora e – sottolinea ancora il manager – dove si deve massimizzare l’efficienza energetica anche grazie al supporto della Gen AI, che modulerà il funzionamento dei sistemi rispetto ai consumi richiesti per le varie fasi della sua gestione”. L’altra faccia della stessa medaglia è il costo dell’energia: una recente simulazione di IDC ha evidenziato infatti come la spesa per l’elettricità necessaria al funzionamento dei data center (il calcolo è stato effettuato su strutture con un PUE, Power Usage Effectiveness, l’unità di misura dell’efficienza energetica di un centro di calcolo, di 1,5) potrebbe crescere a un tasso annuale composito nell’ordine del 20%, con un trend al rialzo che metterebbe a rischio la sostenibilità economica del settore. “L’impatto più rilevante – sottolinea de Bartolo – è il funzionamento e il mantenimento della tecnologia nel tempo, non la sua acquisizione. La tecnologia deve portare i sistemi a fare di più con meno: e se guardiamo ai costi dell’energia in Italia, quando si abbattono i consumi del 40% i benefici ottenibili diventano molto importanti”. L’apporto di tecnologie all’avanguardia e il ricorso sempre più strategico alle fonti rinnovabili sono quindi strade “obbligate” per abbattere gli oneri di gestione e ridurre l’impatto ambientale dei data center, ed altrettanto importanti sono di conseguenza le modalità attraverso le quali le grandi sale macchine vengono raffreddate, in ragione del fatto che i tradizionali sistemi ad aria si stanno rivelando non più efficienti per sostenere l’imperativo di ridurre le emissioni di carbonio. Ed è su questo specifico piano che Lenovo è convinta di poter fare la differenza.
I vantaggi del raffreddamento ad acqua che piace a Nvidia
L’approccio della multinazionale cinese, quando si parla di tecnologie di cooling in ambienti dove si processano applicazioni e modelli di AI, riflette l’assunto secondo il quale il fattore determinante non è solo la potenza dei componenti che operano all’interno del data center bensì la loro densità. A meno che i server non diventino tre volte più grandi, si rendono necessari sistemi che garantiscano un’efficiente rimozione del calore e il raffreddamento a liquido – precisa in proposito de Bartolo – diventerà indispensabile per supportare la diffusione mainstream dell’intelligenza artificiale e un elemento cruciale per la progettazione della nuova generazione di data center in uso agli hyperscaler, alle medie e grandi imprese e ai centri di ricerca pubblici”. Questi ultimi, non a caso, sono stati tra i primi a credere nell’efficacia del raffreddamento a liquido per supportare il lavoro dei rispettivi HPC in chiave AI mentre le aziende, notoriamente più prudenti ad investire su soluzioni innovative, stanno progressivamente strizzando l’occhio a questa tecnologia e in modo particolare quelle del settore finanziario e nell’industria automobilistica. A loro e a tutte le industry, il produttore cinese può mettere a disposizione dei propri clienti un decennio di esperienza con i sistemi Neptune, che utilizzano acqua pura con prese a temperatura ambiente e promettono di dissipare fino al 98% del calore prodotto dai supercomputer mantenendo la temperatura delle CPU a valori in grado di garantire la massima frequenza di funzionamento. L’impatto sui consumi, confermano da Lenovo, è significativo sia a livello di singoli server che (soprattutto) del data center nel suo insieme, proprio perché (di norma) solo due terzi dell’energia utilizzata da una sala macchine è destinata all’elaborazione, mentre un terzo viene utilizzato per raffreddarlo su base perimetrale. Ma non solo. I data center ottimizzati a liquido permettono di collocare più apparecchiature in un’alta densità di rack, utilizzando meno spazio fisico e riducendo di conseguenza la necessità di costruire nuovi edifici, e di raccogliere il calore dell’acqua calda che fuoriesce dalle macchine per riscaldare gli edifici. “A tendere – conferma de Bartolo – arriveremo a raffreddare ad acqua il 100% dei sistemi che adotteranno l’architettura di GPU per l’AI generativa Blackwell di Nvidia”.
Le best practice italiane per il supercalcolo sostenibile
L’Italia, e questa va letta come una buonissima notizia, è pioniera nell’adozione dei sistemi di raffreddamento ad acqua e tale notizia fa il paio con le proiezioni degli investimenti prossimi venturi in ambito data center, stimati dall’IDA (Italian Datacenter Association) vale a dire fra i 10 e 13 miliardi di euro per i prossimi 5-10 anni con una ventina i progetti in pipeline e in fase di presentazione e un impatto economico complessivo che potrebbe superare quota 15 miliardi comprendendo anche le spese per le apparecchiature IT e i costi operativi. Se la capacità in Italia dei data center commerciali dovrebbe raggiungere quasi 1 GW di potenza IT installata entro il 2028 (o addirittura 1,2 GW se la corsa in avanti pilotata dall’intelligenza artificiale si manterrà a ritmo sostenuto), tutti i progetti legati al supercalcolo in pancia ai principali centri di ricerca italiani a cui sta lavorando Lenovo contemplano l’adozione della tecnologia Neptune. I nomi a cui fare riferimento sono quelli del CSCC di Lecce che studia gli effetti del cambiamento climatico, dell’Università di Pisa, dell’ENEA (l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile) e del Cineca. Proprio queste ultime due, a braccetto con