Storie Web domenica, Aprile 28
Notiziario

Da quando ChatGPT si è rivelato al grande pubblico, sembra che dialogare con i computer in linguaggio naturale sia un gioco per ragazzi. Basta collegarsi al sito e iniziare a chiacchierare con il bot più brillante di sempre oppure aprire una qualsiasi delle app di Office e iniziare a usare Co-Pilot per creare documenti, presentazioni, fogli di calcolo… Ma è tutto qui? Ovviamente no. Il ruolo che l’IA deve avere nelle aziende va ben oltre, ma riuscire a spremerne il vero potenziale è una sfida notevole sia tecnica sia mentale.
Al KubeCon + CNCFCon 2024, un evento dedicato a Kubernets e alla Cloud Native Computing Foundation (una piattaforma e una fondazione sotto l’egida della Linux Foundation) si sono riuniti più di 12.000 supertecnici intenti a studiare e sperimentare con l’intelligenza artificiale in modo da portare davvero l’IA generativa nei processi aziendali in modo utile e profittevole, ma li attendo un compito complesso.
«Sperimentare con l’IA” – dice Priyanka Sharma, Executive Director della Cloud Native Computing Foundation – “è molto facile: bastano un notebook e la conoscenza dei principi di base delle piattaforme, ma portarla poi a essere usata da tutta un’azienda è un altro paio di maniche». Già da un punto di vista tecnico, l’infrastruttura che deve servire decine o centinaia di dipendenti (se non migliaia) va studiata molto attentamente e ogni caso ha peculiarità che vanno risolte dopo attente analisi.
E poi c’è il fattore tempo. Secondo Sharma, infatti, le difficoltà che si incontrano ricordano molto da vicino quelle che abbiamo già visto quando è arrivato il Cloud: le aziende devono capire di cosa si tratta, cosa possono farci, iniziare a fidarsi e poi, infine, includerla nella vita di tutti i giorni. Con una differenza… la velocità con cui tutto questo deve accadere sarà dieci volte quella che ha mosso le aziende verso il cloud.
Al contrario di quanto avvenuto con il cloud, quando le aziende erano molto diffidenti all’inizio e c’è stato un periodo abbastanza lungo di diffidenza che ha permesso ai tecnici di studiarlo con calma e arrivare in maniera più o meno ragionata all’adozione, oggi tutti vogliono l’IA nelle aziende, ma pochi sanno come farlo e ancor meno hanno a disposizione tutto quello che serve. Comprare GPU è oggi difficilissimo se non sei un grande datacenter e le competenze nel settore sono ancora rare. Senza contare il problema dell’accettazione in azienda.
“Le aziende non possono tenere il passo dell’innovazione che vediamo adesso nell’IA” – ha detto il responsabile dei sistemi informatici di una grande azienda tedesca incontrata qui a Parigi. “Siamo ancora alle prese con il ciclo aperto dalla migrazione in cloud, con l’ottimizzazione dei carichi e la definizione del software cloud native, con personale che ancora non ha abbracciato a pieno le funzionalità offerte dalla nuova tecnologia e adesso si apre questo ciclo che si annuncia velocissimo. Correremo, ma resteremo sempre indietro”.
La risposta ai molti problemi che riguardano l’ondata di piena che sta diventando l’IA e che rischia di travolgere le aziende sta nella standardizzazione. “Dobbiamo cercare di creare” – dice Sharma – “un ecosistema quanto più standardizzato possibile, in modo da velocizzare l’apprendimento e l’adozione da parte di tutte le entità interessate dal cambiamento. Dobbiamo fare tesoro dell’esperienza passata e costruire su quella, puntando su tecnologie aperte e ben supportate come Kubernetes”. La standardizzazione è da sempre lo scopo della Cloud Native Computing Foundation che da anni si adopera proprio per promuovere lo sviluppo di progetti Open Source che fungano da base per lo sviluppo aperto e libero di tecnologie cloud. Kubernetes è una di queste e al compimento del decimo anno si propone come la piattaforma più gettonata per i progetti di IA. La strada, però, è ancora lunga e il prossimo futuro vede l’adozione dell’intelligenza artificiale da parte delle aziende come supporto alle operazioni già in essere. Soluzioni come Co-pilot di Microsoft si faranno strada facilmente perché semplici da integrare e semi-pronte. Sharma predica di resistere alle sirene della semplicità, ma non è un messaggio destinato a fare troppi proseliti: quello che porta un beneficio a costi ridotti e tempi stretti verrà adottato in fretta. Il punto è cosa succederà dopo e questo lo sapremo al massimo in un paio d’anni perché, come dicevamo, la velocità dell’IA è dieci volte quella delle tecnologie precedenti e crescerà ancora.

Condividere.
© 2024 Mahalsa Italia. Tutti i diritti riservati.