L’intelligenza artificiale generativa ha un problema: consuma troppa energia. Nonostante i successi raggiunti nell’imitazione del ragionamento umano, sul fronte dell’efficienza energetica l’Ia per ora ha perso la sfida con il cervello.
I chip delle potenti Gpu Nvidia hanno permesso di costruire supercomputer per il calcolo parallelo in grado di addestrare i grandi modelli linguistici. La tecnologia che, da ChatGpt in poi, ha dato alle macchine la capacità di comprendere il linguaggio e generare autonomamente testi e immagini. Come tutte le innovazioni, però, anche questi chip sono destinati a essere superati. Tra i possibili sostituti ci sono i chip neuromorfici, circuiti progettati per imitare il funzionamento della macchina più intelligente di tutte che per funzionare consuma appena 20 watt: il cervello umano.
Modello ispirato dal cervello
Se non puoi batterlo, imitalo. Si può riassumere così la corsa alle architetture di calcolo che apriranno l’era post Nvidia e che si ispirano al cervello dell’uomo. I neuroni animali non si attivano tutti insieme, ma singolarmente e solo in presenza di uno stimolo. Nelle reti neurali in uso oggi, invece, tutti i neuroni sintetici di una Gpu sono sempre attivi. Da qui l’idea alla base del calcolo neuromorfico: imitare il comportamento animale e attivare i nodi di calcolo solo quando la situazione lo richiede. Tradotto in hardware, significa non usare tutta la rete per fare il calcolo, ma solo una parte. O anche, seguendo un secondo filone di ricerca, racchiudere nel chip sia l’unità di memoria che l’unità di calcolo. Proprio come nei neuroni.
Meno consumo di energia
Vittorio Fra è ingegnere e ricercatore dell’Electronic design automation Group del Politecnico di Torino. È uno dei pochi italiani intervenuto all’ultima edizione della Neuro inspired computational elements conference (Nice), la 13esima conferenza annuale dedicata al calcolo neuromorfico che si è svolta all’Università di Heidelberg, in Germania. Ricercatori da tutto il mondo hanno annunciato novità, condiviso risultati, presentato applicazioni: casi d’uso concreti, fatti girare sia su hardware antropomorfici che su quelli tradizionali per confrontare le prestazioni.
«Se si misura – spiega Fra – la potenza consumata per eseguire un algoritmo di intelligenza artificiale su chip neuromorfici e la si confronta con quella necessaria per far funzionare lo stesso algoritmo su un hardware tradizionale basato su Gpu, è facile percepire quale sia il grande vantaggio del calcolo neuromorfico. Il risparmio dipende dal tipo di calcolo ma, a parità di condizioni, l’energia consumata è da mille a 15mila volte più bassa. Il tutto senza ripercussioni né sulla velocità di calcolo né sulla correttezza del ragionamento». Il gruppo di Torino fa parte del network Ebrains-Italy e ha il compito di sviluppare una infrastruttura per la prototipazione di soluzioni neuromorfiche.