“Diversibus viis plurima solvo” (Dvps), “attraverso percorsi diversi, risolvo molteplici problemi”: ricorre al latino il progetto innovativo, uno dei più ambiziosi finanziati da Horizon Europe, che punta a studiare la prossima generazione di sistemi di intelligenza artificiale. L’obiettivo è quello di superare i limiti dei large language model, quelli stile ChatGPT per intendersi, con nuovi modelli in grado di apprendere dall’interazione con il mondo reale, combinando i dati linguistici e testuali con quelli visivi e sensoriali, in tempo reale.
A guidare il progetto europeo Dvps è Translated, società italiana che si muove tra Roma e la Silicon Valley, pioniera dell’utilizzo dell’AI nel campo delle soluzioni linguistiche al servizio delle traduzioni, che coordina un team di settanta ricercatori, di cui una trentina italiani, da una ventina di organizzazioni di primo piano in nove Paesi europei, sostenuto da un finanziamento iniziale di 29 milioni di euro, uno dei più grossi della Ue in ambito intelligenza artificiale.
A differenza dei sistemi attuali, che apprendono a partire da rappresentazioni del mondo tramite testi, immagini e video in modalità sequenziale, i modelli di nuova generazione dovranno essere più simili all’approccio umano, basati su un apprendimento empirico attraverso l’interazione diretta con il mondo fisico, con un processo multisensoriale in cui tutti i sensi processano le informazioni simultaneamente. Integrando dati linguistici, visivi e provenienti da sensori, sviluppano una consapevolezza contestuale più profonda, espandendo le capacità umane in domini in cui la fiducia, la precisione e l’adattabilità sono cruciali.
“I large language model hanno segnato una svolta, ma iniziano a mostrare i loro limiti, con un apprendimento supervisionato guidato dall’umano su contenuti digitali, sulla base di un’architettura che porta le macchine a seguire un processo sequenziale – spiega il cofounder e Ceo di Translated Marco Trombetti -. Il progetto Dvps ambisce a superare questi limiti, da una parte fornendo alle macchine la capacità di processare tutte le informazioni in maniera parallela, simultanea, come fanno tutte le forme biologiche intelligenti e poi rimodulando il modello di apprendimento sulla base dell’esperienza e dell’interazione con il resto del mondo, come d’altra parte facciamo noi umani”.
Oggi i sensori per fornire l’informazione in tempo reale sul mondo circostante esistono già in abbondanza, si tratta di creare modelli in grado di interpretare in maniera simultanea e multimodale tutti i segnali che ricevono. Il progetto, che coinvolge istituti di ricerca di eccellenza come Università di Oxford, Alan Turing Institute, École Polytechnique Fédérale