Il panorama italiano delle soluzioni per l’analisi e la gestione dei dati, che comprende infrastrutture IT, software e servizi correlati, chiuderà il 2023 a quota 2,85 miliardi di euro, dato che rappresenta un aumento del 18% rispetto all’anno precedente. Sono i dati principali che emergono dalla lettura dell’ultima edizione dell’Osservatorio Big Data & Business Analytics del Politecnico di Milano.
Il rapporto del 2023 traccia l’evoluzione degli strumenti adottati dalle aziende, come nel caso dell’intelligenza artificiale generativa, che ha portato ad una rinnovata attenzione sulla qualità dei dataset da utilizzare con gli algoritmi e, di conseguenza, ha contribuito a migliorare la maturità delle aziende italiane nel campo del data management.
Tuttavia, nonostante i progressi, rimangono ancora molte sfide da affrontare, in particolare a livello organizzativo e culturale.
Inoltre, l’adozione delle tecnologie inerenti i Big Data non sempre si traduce in un cambiamento strategico significativo, mentre la mancanza di competenze e figure specializzate continua a crescere, con il rischio di aumentare il divario digitale tra le aziende.
“Il grande interesse suscitato nel 2023 per l’Intelligenza Artificiale Generativa ha contribuito ad accendere i riflettori sull’importanza di avere a disposizione dati di buona qualità, fondamenta per rendere affidabili, e dunque utilizzabili, i risultati degli algoritmi”, commenta Carlo Vercellis, Responsabile Scientifico dell’Osservatorio Big Data & Business Analytics.
“Mentre l’innovazione avanza, però, la situazione di incertezza economica e geopolitica rischia di far ritardare gli investimenti, non tecnologici, ma soprattutto organizzativi e culturali, per proseguire nel percorso di valorizzazione dei dati. L’obiettivo delle imprese deve essere quello di costruire una buona data experience, intesa come l’esperienza complessiva di un utente in ogni fase di relazione con i dati, capace di fare la differenza nell’impatto di soluzioni di Analytics”, aggiunge.
Indice degli argomenti
Il mercato Data Management & Analytics in Italia
L’analisi del mercato italiano conferma l’attenzione crescente delle imprese verso il tema della Cloud Migration, un’evoluzione tecnologica ormai ritenuta necessaria per perseguire gli obiettivi di Data Strategy.
Il budget Analytics destinato a servizi in Public Cloud pesa nel 2023 circa il 27% della spesa in soluzioni e servizi di Data Management & Analytics, per un valore di circa 756 milioni di euro (+27% rispetto al 2022).
Nell’ambito software, le voci di spesa che crescono di più sono:
- strumenti abilitanti lo sviluppo di progettualità di Advanced Analytics, come piattaforme di Data Science e specifiche soluzioni software di Artificial Intelligence (come NLP e Computer Vision)
- tecnologie innovative a supporto della gestione dei dati, come soluzioni di Fast Data Processing e Database NoSQL/NewSQL
I settori bancario e telco-media sono quelli che hanno contribuito maggiormente in termini di volume, mentre il settore manifatturiero è in testa per quanto riguarda la crescita dei budget.
Fanno tutto le grandi aziende
La maggior parte degli investimenti proviene dalle grandi aziende, che rappresentano l’83% del totale, mentre le microimprese e le PMI contribuiscono con il restante 17%. Una cifra ancora molto bassa, ma le piccole e medie imprese stanno diventando più attive: il 57% utilizza software per la visualizzazione dei dati e la generazione di report e il 74% delle PMI svolge attività di analisi dati almeno descrittive.
Dati che, tuttavia, devono essere letti in chiave “critica”, avverte l’Osservatorio. Per quanto riguarda le analisi descrittive, infatti, viene precisato che “la maggior parte svolge analisi sporadiche, non necessariamente con figure professionali dedicate”.
Situazione analoga per l’utilizzo del software per la visualizzazione dei dati che, seppur in crescita rispetto al 2022 (+8%), riguarda ancora poche figure specializzate (mentre persiste un ampio utilizzo del foglio elettronico).
Tra le realtà che svolgono analisi dati almeno descrittive, il 68% sta sperimentando anche nel campo delle analisi predittive. Questo dato, in crescita rispetto agli anni passati, è anche frutto dell’evoluzione dell’offerta tecnologica: gli strumenti di business intelligence, così come i software specialistici per dipartimento aziendale, permettono di sperimentare in questo campo con investimenti molto limitati o addirittura senza risorse economiche dedicate.
Le analisi predittive, per il 15% di imprese che le svolgono, sono limitate al miglioramento della pianificazione finanziaria, mentre la restante quota di aziende conduce anche analisi in altri ambiti, in particolare per supportare i processi decisionali in ambito marketing o produzione.
Il livello di maturità digitale delle grandi imprese: quelle della manifattura sono ancora “immature”
Per quanto riguarda le grandi imprese, il 20% di esse ha attribuito ad una figura executive l’obiettivo di valorizzazione dei dati a livello trasversale, dato sostanzialmente in linea con quello del 2022.
Migliora invece, rispetto allo scorso anno, il livello di digitalizzazione complessivo delle grandi aziende, con una crescita delle realtà caratterizzate da un livello di digitalizzazione “avanzato”, che crescono del 5% rispetto al dato del 2022 (passando dal 15% al 20%).
Nello specifico, il Data Strategy Index dell’Osservatorio – utilizzato proprio per misurare il livello di digitalizzazione complessivo delle imprese – ha rilevato che le aziende più “avanzate” sono grandissime imprese (con oltre 1000 addetti) appartenenti ai settori “banche, assicurazioni e telco”.
Al contrario, tra le aziende giudicate “digitalmente immature” si trovano realtà relativamente più piccole che operano, prevalentemente, nei settori della manifattura, GDO/retail e servizi.
Le aziende prudenti hanno dato priorità ad una buona qualità dei dati – valutata come più elevata della media – e alla presenza di figure dedicate alla Data Governance.
Le realtà intraprendenti e focalizzate si sono concentrate in prima battuta sulla Data Science, nel primo caso si tratta di aziende che hanno per lo più iniziato a sperimentare negli ultimi dodici mesi, nel secondo invece sono realtà con una lunga esperienza di analisi avanzate dei dati, un’esperienza verticale su alcune aree core del business, che non coinvolge però la gran parte delle funzioni aziendali. Entrambi i gruppi lamentano carenze lato gestione e governo dell’intero patrimonio informativo.
Le tecnologie adottate e i professionisti presenti nelle grandi aziende
Sul fronte delle tecnologie adottate dalle grandi aziende, emerge un quadro ormai consolidato per quanto riguarda soluzioni di Business Intelligence e Descriptive Analytics: il 93% ha infatti adottato almeno uno strumento di Data Visualization & Reporting.
Il principale aspetto su cui lavorare è relativo all’utilizzo diffuso di queste soluzioni, oltre la ristretta cerchia di figure specializzate.
Coerentemente, vi è nel 2023 una crescita rilevante di aziende che offrono corsi di formazione ai propri dipendenti non specialisti (63% contro il 43% del 2022). Tuttavia, solo un’azienda su due monitora l’effettivo utilizzo di questi strumenti da parte dei propri dipendenti e, anche tra queste realtà, la pervasività di queste soluzioni è modesta.
Negli ultimi due anni, sono quasi raddoppiate le grandi organizzazioni che hanno ruoli e responsabilità di Data Governance (41% vs 25%). In questo ambito, dunque, si registra un cambio di passo, complice il ritardo accumulato in precedenza.
Tuttavia, anche tra queste organizzazioni, la maggior parte non ha introdotto policy di accesso ai dati nei diversi domini dati aziendali e il 64% non ha definito responsabilità diffuse di data ownership e data stewardship.
Infine, l’adozione di specifiche soluzioni tecnologiche per efficientare e automatizzare, almeno parzialmente, le diverse attività di Data Management (es. Data Catalog, Data Access Management, Data Quality Management Tool) riguarda il 53% delle grandi aziende (+6% rispetto al 2022).
In crescita anche il numero di organizzazioni che hanno avviato almeno una sperimentazione in ambito Advanced Analytics (73%, +8% rispetto al 2022). Tuttavia, tra queste, un’azienda su due afferma che la Data Science non ha un impatto diretto a supporto delle decisioni strategiche, neanche in alcune funzioni aziendali. Dato che sottolinea la difficoltà di molte grandi organizzazioni nel legare le priorità di analisi dati con le priorità di business.
Dal punto di vista operativo, lo sviluppo di progetti di Advanced Analytics viene gestito totalmente da figure di Data Science interne nel 24% delle grandi aziende, mentre nel resto dei casi si preferisce avere un approccio ibrido, unendo competenze interne e il supporto di consulenti.
La carenza di competenze ostacola grandi e piccole imprese
Per quanto riguarda la gestione delle competenze e delle figure necessarie a utilizzare queste tecnologie, l’11% delle grandi imprese ha introdotto almeno una nuova figura professionale che si occupa di analisi dati, basiche o avanzate, o di attività connesse (ad esempio modalità di visualizzazione dei dati o implementazione di modelli di machine learning).
Si tratta di aziende che hanno già maturato una solida consapevolezza rispetto all’utilizzo di queste tecnologie e che quindi avevano già le figure “principali” relative alla loro gestione e utilizzo (come ad esempio Data Scientist e Data Engineer), e oggi allargano il loro portafoglio di competenze con nuove figure professionali, tra queste Data Visualization Expert, Machine Learning Engineer e Analytics Translator.
Guardando proprio ai ruoli principali, si registra invece una sostanziale stabilità in termini di diffusione: il Data Analyst è presente nel 77% delle grandi organizzazioni, segue il Data Engineer (59%) e il Data Scientist (49%).
L’andamento, invariato, della diffusione di queste figure è da ricollegare alla difficoltà di reperimento, riportata dal 77% delle aziende, l’11% in più rispetto alla precedente rilevazione. Una difficoltà che frena ulteriormente l’adozione di questi strumenti presso le aziende, anche perché si traduce in un carico lavorativo eccessivamente gravoso per le figure esistenti.
Stabile anche la situazione presso le PMI: quattro su dieci dichiarano di non aver figure specializzate, in linea con il dato del 2022. Accanto a realtà che hanno delle figure professionali internamente e che nella gran parte dei casi si affidano anche all’esterno per rinforzarsi e accelerare sulla propria capacità analitica, persistono quindi aziende che continuano a non fare passi avanti sul tema.
“Il rischio è veder replicato l’Analytics Divide già osservato nelle grandi imprese, un rischio che non è frutto della classe dimensionale, quanto della cultura della singola realtà aziendale, piccola o media che sia”, scrivono i ricercatori dell’Osservatorio Big Data & Business Analytics.
I trend futuri
Coerentemente con le tendenze in atto, le grandi realtà più mature stanno sperimentando con la Generative AI, anche nell’ambito gestione e analisi dei dati. Gli strumenti utilizzati riguardano, ad esempio, la creazione di dati sintetici o code assistant per lo sviluppo e manutenzione degli algoritmi a supporto di Data Scientist o Data Engineer, ma anche strumenti che consentono di trovare nuove strade per estrarre insight di valore da dati non strutturati (es. email, survey, documenti interni).
Un’altra interessante applicazione – su cui invece si stanno muovendo principalmente i player di Data Visualization – riguarda la cosiddetta conversational analytics, ossia l’utilizzo del linguaggio naturale nella ricerca di dati e insight.
Si tratta di un’opportunità era già presente prima dell’avvento dell’AI Generativa, ma che può ricavare grande beneficio dall’introduzione dei Large Language Models in termini di esperienza per l’utente.
Per quello che riguarda le aree in cui si concentreranno maggiormente le aziende più mature, centrale sarà lo sviluppo di una buona cultura dei dati. Ciò non significa soltanto proporre corsi di formazione interni, ma anche sviluppare le cosiddette Data Community, luoghi di scambio di buone pratiche e innovazione su questi temi.
Infine, grande attenzione è riservata ai nuovi paradigmi architetturali e a nuovi approcci metodologici. Rientrano in questo ambito il concetto di Data Mesh e lo sviluppo di un approccio product-oriented nella creazione di artefatti (es. dataset, dashboard, algoritmi di Advanced Analytics) basati sui dati. Entrambi sono oggetto di discussione e, in una minoranza dei casi, di sperimentazioni nelle realtà più mature.