Storie Web martedì, Aprile 15
Notiziario

È in atto un cambio di rotta significativo, soprattutto tra le grandi aziende: dopo l’iniziale entusiasmo per il cloud pubblico, molte realtà (banche e istituzioni governative in testa) stanno riconsiderando la strategia di migrazione completa di sistemi e applicazioni nella nuvola. Il motivo? Costi imprevisti e nuovo rincaro dei prezzi dell’energia. Un recente studio condotto da Researchscape per conto di Cloudera, software house statunitense specializzata nel campo dei Big Data, ha rilevato come il 45% delle aziende italiane sia oggi preoccupata per i crescenti oneri legati alla gestione dei dati, con il conseguente “rimpatrio” di questi dati nei data center aziendali e il consolidamento di un approccio ibrido, che combina l’utilizzo delle piattaforme di public cloud dei grandi provider a quello di infrastrutture on premise, miscelando la scalabilità delle prime alla sicurezza delle seconde.

La sfida dell’interoperabilità

La sfida da vincere per Cio e IT manager, in questo contesto, diventa gioco forza quella di garantire l’interoperabilità applicativa tra i due ambienti ma solo il 19% delle imprese ha adottato al momento architetture di Data Lakehouse, e cioè soluzioni che combinano le migliori caratteristiche dei data lake e dei data warehouse in una piattaforma unificata per l’archiviazione e l’analisi dei dati. Solo il 22% delle aziende nostrane, inoltre, si fida “molto” dei dati per prendere decisioni strategiche, e tale diffidenza è dovuta in parte alla scarsa capacità di governance delle informazioni (lo dice il 45% del campione italiano di 600 responsabili IT intervistati fra Stati Unit, Europa e regione Asia Pacifico), alla complessità di gestione dei sistemi multipiattaforma (voce citata nel 39% dei casi) e alla presenza di silos di dati (nel 35%). Ostacoli, quelli appena descritti, che non sono certo destinati a scomparire con la progressiva diffusione dell’intelligenza artificiale nel cuore dei processi chiave. L’adozione dell’AI, infatti, non solo necessita di una strategia di data management solida, ma richiede anche infrastrutture e competenze adeguate. E se le applicazioni basate su machine learning e modelli LLM rappresentano il “nuovo” che avanza, anche una tecnologia “vecchia” come l’edge computing sta tornando prepotentemente di moda, soprattutto in settori critici come energia e robotica industriale. L’obiettivo comune, come suggeriscono gli esperti, è quello di garantire una gestione fluida dei dati in ambienti eterogenei rispetto a una tendenza che vede in costante aumento gli investimenti nel cloud, che si conferma in tal senso un pilastro imprescindibile per la digitalizzazione delle imprese.

Crescita traniata dall’Ai

Nel 2024, infatti, la spesa delle aziende italiane in servizi e soluzioni di computing nella nuvola ha raggiunto quota 6,8 miliardi di euro, con un incremento del 24% rispetto all’anno precedente e il peso determinante della componente public & hybrid cloud, arrivata a 4,8 miliardi con un salto in avanti nei dodici mesi del 30% (i dati sono dell’Osservatorio del Politecnico di Milano). Ad alimentare la crescita del mercato ci ha pensato ovviamente l’intelligenza artificiale, e più precisamente il fatto che nelle grandi imprese la quasi totalità (l’87% per la precisione) delle soluzioni con funzionalità AI sfrutta modelli di servizio nella nuvola.

Un vademecum da seguire

Secondo Fabio Pascali, Regional Vice President Italy, Greece & Cyprus di Cloudera, le imprese si trovano di fronte a un bivio e a una scelta cruciale. “Il cloud – ha spiegato in proposito il manager al Sole24ore – è un fattore abilitante fondamentale per l’intelligenza artificiale, ma la sua implementazione non può essere considerata una soluzione univoca. Le aziende europee, in particolare, stanno riconoscendo la necessità di un approccio più strategico e ponderato, che tenga conto delle specificità del proprio business e delle sfide legate alla gestione dei dati. Ciò si traduce in una crescente adozione di modelli ibridi, che permettono di bilanciare i vantaggi del cloud pubblico con le esigenze di sicurezza e conformità tipiche di settori regolamentati e sensibili”.

La priorità diventa di conseguenza quella di evitare picchi di costi che possono derivare dal ricorso massivo ai servizi nella nuvola e di ottimizzare l’utilizzo delle risorse per contenere gli oneri complessivi relativi alla gestione dei dati, dall’infrastruttura alle licenze software fino al personale tecnico. Un secondo crocevia importante riguarda la difficoltà di accesso ai dati, palesata da un’impresa italiana su due. Una difficoltà che rimarca, a detta di Pascali, “la necessità di un approccio che integri diverse fonti e che consenta di mantenere visibilità sui dati indipendentemente dalla loro ubicazione, evitando dipendenze dagli specifici cloud provider”. Le imprese, come del resto conferma lo studio di Cloudera, vogliono quindi mantenere il controllo su dati sensibili e critici e non sono disposte a delegare completamente la sicurezza degli stessi a soggetti terzi.

Condividere.
© 2025 Mahalsa Italia. Tutti i diritti riservati.