Dal dato all’informazione: AI, Cloud ed Edge Computing al servizio della fabbrica intelligente

Il ruolo delle tecnologie dell’Intelligenza Artificiale, dell’Edge e del Cloud Computing al servizio della fabbrica intelligente è stato uno dei temi principali toccati nel corso dell’evento Industry 4.0 360 Summit. Ecco a che punto è la diffusione di questi concetti da parte delle aziende manifatturiere italiane e che cosa manca ancora per sfruttare appieno il valore dei dati.

Pubblicato il 12 Mag 2021

industria 4.0

Cosa si intende per data-driven enterprise e fabbrica intelligente? Quali sono le tecnologie che permettono alle aziende di dare valore ai dati e in che modo cambiano i business model grazie al loro contributo? Sono alcuni dei temi affrontati nel corso dell’evento Industry 4.0 360 Summit, giornata dedicata ai temi dell’innovazione digitale al servizio di produttività, efficienza e sostenibilità del manifatturiero.

L’evento, organizzato dal Innovation Post e Industry4business, testate del network Digital360, ha riunito esperti provenienti dal mondo delle università, dei centri di ricerca, delle associazioni, oltre naturalmente ai big player del mondo delle tecnologie abilitanti.

Attraverso testimonianze ed esempi concreti, i partecipanti al Summit hanno ripercorso le principali tappe dell’evoluzione dell’Industria 4.0 e delle tecnologie che hanno abilitato la quarta rivoluzione industriale. Non poteva mancare un focus sui dati, sulle tecnologie dell’Internet of Things (IoT), del Cloud, dell’Edge Computing, dell’Intelligenza Artificiale e del ruolo centrale dell’Analytics.

Dal dato all’informazione, verso la data-driven enterprise

Tecnologie che negli ultimi anni hanno permesso alle aziende manifatturiere di estrarre una quantità sempre maggiore di dati dai propri macchinari. Dati che, per poter essere utilizzati e trasformati (come vedremo più avanti) in servizi, devono prima di tutto essere affidabili.

In questo la sensoristica assume un ruolo fondamentale, come spiega Marco Catizone, Head of Industrial Integration Space and Shared Services Unit National Product Manager di Sick.

“In questi ambiti la sfida primaria è generare dati affidabili e precisi, quindi i sensori sono sempre più spesso dotati di elaborazione interna per processare internamente dato e renderlo più affidabile”. 

Ma questo non basta. La semplice raccolta dei dati, di per sé, non è sufficiente a rendere un impianto (e un’azienda) davvero 4.0: il dato è inutile se non diventa informazione e successivamente insight, se non gli viene attribuito un valore, grazie alle tecnologie sopra citate e al ruolo dell’uomo, ancora centrale in questo processo evolutivo della manifattura.

In questo contesto si parla di data-driven enterprise, cioè di un’azienda in grado di utilizzare dati a supporto delle proprio decisioni, ottimizzando così prodotti e servizi. Ma non solo: l’altro paradigma che caratterizza una data-driven enterprise è l’abilità di utilizzare il dato per guidare scelte strategiche che possono portare a nuovi modelli di business per l’azienda. Qui si inserisce il tema della servitizzazione, ossia il dato che da informazione a supporto del prodotto diventa il prodotto stesso, abilitando nuovi servizi e nuovi business model.

A che punto sono le imprese manifatturiere italiane in questo data journey? “L’evoluzione è tutt’altro che semplice – spiega Federico Adrodegari, Ricercatore, Università degli studi di Bresciasembra tutto pronto, le tecnologie ci sono, ma nella trasformazione del dato in conoscenza ci sono diversi fattori da tenere in considerazione: c’è l’elemento tecnologico, quello della governance, c’è ancora consapevolezza limitata, soprattutto tra le PMI, e ovviamente c’è ancora arretratezza culturale rispetto volontà di condividere davvero i dati e trasformarli in valore”.

Ed è proprio questa la sfida che oggi le imprese si trovano ad affrontare: come dare valore al dato? Come utilizzarlo per aumentare la competitività dell’azienda? Il percorso verso la data-driven enterprise non è univoco, ma sono numerose le strade che si possono intraprendere in termine di tecnologie, di ownership, di gestione del dato e del tipo di valore gli si vuole attribuire (economico, funzionale o sociale). “Il valore si può generare rispetto ecosistema, a un’azienda, ma anche rispetto all’individuo, che può utilizzare i dati per svolgere i suoi compiti in modo più semplice”, aggiunge Adrodegari.

Da dove partire quindi? A fornirci un esempio concreto di come ci si approccia a questo data journey è Carlo Di Nicola, Team Leader System e Sales Engineer di ifm Electronic. “Per noi il punto di partenza è l’analisi dell’OT, che facciamo insieme al cliente. È uno step fondamentale per avere un dato corretto, fruibile e ottimizzato. Dopo di che, partiamo dall’obiettivo del cliente, investigando perché la sua azienda ha bisogno di digitalizzare e quale scopo si prefigge di raggiungere”, spiega.

Si studia poi l’integrazione, intesa come “l’architettura che, partendo dal sensore, permetterà di raccogliere e di utilizzare il dato”. Sensori che non sempre utilizzano frequenza generazione e canali di comunicazioni che sono uguali a quelli utilizzati nella raccolta di dati tradizionali, spiega Catizone. Diventa quindi essenziale lavorare sulla convergenza IT/OT, che vuol dire rendere i sensori capaci di comunicare in maniera diversa, ad esempio direttamente con entità del mondo IT, e anche con una frequenza che non è quella del real time.

“Questo è un aspetto molto importante, avere canali diversi. Per questo parliamo di dual talk: parliamo sia con il mondo di campo che IT o nel sensore o attraverso dispositivi Edge che acquisiscono dati, li pre elaborano per poi darli a chi ne farà buon uso”, aggiunge.

Ma facciamo un passo indietro e torniamo all’integrazione. Integrazione che, spiega Di Nicola, deve essere sviluppata in modo non pervasivo e nell’ottica di creare un impianto di facile utilizzo per gli operatori.

A questo proposito, ifm Electronic ha introdotto il concetto di speaking machine (macchina parlante), dove è il macchinario stesso a comunicare all’operatore (ma anche ai team di manutenzione e ai supervisori, a seconda delle impostazioni stabilite con l’azienda) eventuali malfunzionamenti o anomalie.

Human in the loop: l’uomo al centro dell’innovazione

Ed è proprio questo un altro tema al centro dell’integrazione IT/OT, fattore abilitante dell’Industria 4.0: il ruolo dell’operatore e, più in generale, dell’uomo. Uomo che non è sostituito dalle tecnologie, ma che aiutato, guidato e facilitato nei suoi compiti da esse, rimane sempre al centro del ciclo produttivo, “in the loop”, come spiega Alessandro Azzaroni, Head of Strategic Innovation di Injenia.

“I nostri clienti ci ingaggiavano per automatizzare processi nelle loro smart factory, ma ci siamo accorti che mancava qualcosa: i progetti funzionavano, ma c’era una qualità distintiva che non riusciva ad emergere. Quella qualità distintiva è la conoscenza collettiva degli operatori che negli anni si sono specializzati in determinati processi o nell’utilizzo di un determinato macchinario”. 

Una conoscenza preziosissima, un patrimonio aziendale che se raccolto costituisce un asset molto rilevante per l’azienda. Per raccogliere questa intelligenza collettiva Injenia ha creato Interacta, una piattaforma di social process management.

“Per noi è l’uomo a dare valore al dato e non viceversa – continua Azzaroni – attraverso Interacta andiamo ad arricchire il dato con la conoscenza collettiva all’interno dell’azienda, in modo che i data lake, arricchiti da questi dati qualitativi, siano in grado di fornire degli insight che gli strumenti tradizionali solitamente non possono dare”.

La condivisione della conoscenza tra gli operatori e i vari team aziendali porta con sé numerosi vantaggi: permette agli operatori di interfacciarsi meglio con le tecnologie presenti in azienda, di facilitare la digitalizzazione della stessa e dei suoi processi. “In questo modo si ha una digitalizzazione diffusa a tutto il plant e si crea una memoria storica e ricercabile di tutto quello che è avvenuto”, conclude Azzaroni.

Una memoria che l’azienda può sfruttare sia giornalmente – facilitando così l’handover tra gli operatori nel cambio di turno –, sia nel corso degli anni, semplificando l’inserimento di nuovi operatori.

Nessuna azienda è un’isola: l’importanza della collaborazione

Il passaggio verso un’industria sempre più moderna e connessa, dove le tecnologie aiutano le imprese a massimizzare il valore dei propri asset, apre alle aziende numerose possibilità, ma pone anche delle grandi sfide.

Sfide che secondo i big player non possono essere affrontate dalla singola azienda: diventa sempre più importante, quindi, la collaborazione tra i fornitori di queste tecnologie abilitanti, che diventa elemento essenziale per la resilienza, la flessibilità e la sostenibilità dell’industria.

Sono sempre più frequenti, in effetti, le collaborazioni tra i big player e le soluzioni sviluppate congiuntamente: è questo il caso, ad esempio, della piattaforma di IIoT (Industrial Internet of Things) Field System, sviluppata fa Fanuc in collaborazione con Cisco.

Collaborazione che, come spiega Pier Paolo Parabiaghi, Sales Manager Robot di Fanuc Italia, assumono un ruolo sempre più importante anche in un ottica di protezione dei dati e di tutto l’IT aziendale. “La scelta di collaborare con Cisco è scaturita dalla volontà di lavorare con un esperto nel campo della networking e della cyber security. Da questa collaborazione è nata una piattaforma aperta e scalabile, in grado di connettere tutte le macchine presenti in manufacturing sotto un’unica dashboard”.

La piattaforma permette di connettere tra loro anche macchinari di diversi manufacturer, oppure dello stesso produttore, ma sviluppati in periodi diversi. È per questo che serve un’innovazione che sia davvero aperta – soprattutto in un contesto in cui molte aziende ancora utilizzano macchinari “datati” – che permetta anche alle PMI di cogliere tutti i vantaggi della trasformazione digitale.

“Grazie alla collaborazione con partner esterni, la possibilità applicativa diventa infinita. Il dato viene messo ancora di più a lavoro se lo si fa con altri attori. Questo è l’unico modo per procedere, perché il dato è fine a se stesso se non gli si attribuisce significato”, conclude Parabiaghi. 

Dare valore al dato: il ruolo dell’Edge e del Cloud Computing

Nell’attribuire questo significato al dato, un ruolo fondamentale è stato assunto dal Cloud, ma ancora di più dall’Edge. I sensori disposti sui macchinari sono, infatti, soltanto il primo anello della catena del dato.

La vera rivoluzione che ha portato le aziende a poter attribuire un valore ai tanti dati raccolti, attraverso l’elaborazione degli stessi, è stata l’introduzione del livello Edge nel sistema IT aziendale. Una tecnologia che un numero sempre maggiore di aziende sta adottando, in quanto permette di processare ed elaborare il dato vicino alla macchina, prima di inviarlo al Cloud, ottimizzando così molti processi e riducendo i costi.

“Il sistema Edge è introdotto per essere un tramite verso sistema Cloud, di cui risulta complementare”, spiega Alberto Griffini, Product Manager PLC & SCADA Solutions di Mitsubishi Electric. “L’Edge permette di ridurre il flusso dei dati inviati al Cloud. I dati vengono elaborati a questo livello, grazie a software finalizzati a raccoglierli e analizzarli, per ottenere un modello matematico – statistico del processo”.

Questo modello consente di ridurre notevolmente i tempi di risposta rispetto al Cloud e permette di passare alla fase operativa, grazie ad algoritmi di AI: si abilitano così tutti quei servizi di manutenzione predittiva e gestione smart degli impianti che abbiamo imparato a conoscere. 

Ma cosa serve per creare un’architettura Edge? A spiegarlo è Cristian Sartori, Product Management Team Leader di Siemens. “Non basta prendere un buon PC industriale e far girare alcuni algoritmi per fare Edge Computing. Occorre avere hardware dedicato, pannelli per gli operatori che aggiungono funzionalità per ospitare le applicazioni, dispositivi di rete, ma anche PLC più evoluti, che oltre alla parte classica di automazione ospitano algoritmi molti perforanti”.

A questo primo componente dell’architettura Edge va aggiunto una console centrale, un sistema di controllo che permetta di gestire e aggiornare le applicazioni. Proprio quest’ultime costituiscono la terza componente essenziale di un’architettura Edge. “Proprio per questo una piattaforma non può essere legata a un marchio”, spiega Sartori.

Siemens, infatti, ha sviluppato una piattaforma aperta, che sfrutta e utilizza la tecnologia docker. I “contenitori” permettono di virtualizzare non solo il sistema operativo, ma anche le applicazioni, rendendo più veloce la loro scalabilità.

Non si può parlare di Edge e Cloud Computing senza nominare la sicurezza dei dati: sappiamo, infatti, che tra gli ostacoli che ancora frenano le aziende nell’adozione di queste tecnologie ci sono preoccupazioni (spesso infondate) legate alla gestione e alla sicurezza dei dati e dell’infrastruttura.

In realtà proprio lo sviluppo di queste tecnologie ha fatto sì che cambiasse l’approccio alla cybersecurity, come sottolinea Sartori: “La cybersecurity ormai è entrata a far parte dello sviluppo del prodotto direttamente dal kick off iniziale. Importantissimo è anche il concetto di standardizzazione, che ormai è diventato molto diffuso. Non vi può essere digitalizzazione senza standardizzazione e sicurezza”.

Altro consiglio è quello di affidarsi a ai giusti fornitori, suggerisce Marco Gamba, Innovation and Communication Industry Leader, Schneider Electric. “Quello che consigliamo sempre, a chiunque acquisti a dispositivi connessi, è affidarsi a fornitori che ne certifichino sicurezza anche da punto di vista di cyber security. È quello che facciamo a Schneider Electric: da un lato sviluppiamo prodotti e software sulle principali direttive sulla cybersecurity, dall’altro forniamo certificazioni”.

Sicurezza che è essenziale per proteggere le infrastrutture dell’azienda, spiega Maurizio Semeraro, Secure Power Business Development Manager Italia di Schneider Electric. “Nell’Industria 4.0 l’infrastruttura assume anche un ruolo strategico. Ecco perché anche nell’industria si è diffuso il ruolo del data center provider, che si occupa della robustezza del data center e di prevenire interruzioni al flusso di dati dell’azienda”.

Ci sono diverse best practice che si adottano a livello aziendale per proteggere i propri data center, come la presenza (in loco) di personale IT specializzato, in grado di risolvere determinati problemi. Figure che, in un Paese caratterizzato da nanismo imprenditoriale, non tutte le aziende hanno a disposizione.

“Cosa si fa quindi? Si implementano soluzioni standardizzate come micro data center che assicurano massima protezione IT dal punto di vista sensoristica, intelligenza e protezione del PC, per riconoscere in anticipo potenziali anomalie e permettere di intervenire con calma”, aggiunge Semeraro.

La pandemia ha dato una spinta all’adozione di Big Data, AI, Cloud ed Edge

Abbiamo parlato delle innumerevoli possibilità che sono aperte dall’adozione delle tecnologie dei dati, dell’Intelligenza Artificiale, del Cloud e dell’Esge Computing, ma a che punto sono le aziende manifatturiere italiane nell’adozione di questi processi?

Se le tecnologie ci sono, come abbiamo visto, persistono ancora numerosi ostacoli alla digital transformation delle aziende. Tuttavia, la pandemia ha acceso i riflettori sull’importanza di adottare le giuste tecnologie secondo i bisogni del business e su cosa manca alle aziende per ottimizzare i loro processi.

A sottolinearlo è un recente studio del laboratorio RISE – Research & Innovation for smart enterprises dell’Università di Brescia, che ha coinvolto 160 aziende. Nonostante lo studio abbia evidenziato che ancora il 40% delle imprese siano ancora ferme nell’adozione delle tecnologie abilitanti l’Industria 4.0, la situazione che descrive Andrea Bacchetti, Ricercatore dell’Università degli studi di Brescia e membro del laboratorio RISE, è più ottimista rispetto agli anni passati.

“Rispetto alle precedenti edizioni cresce il numero di tecnologie che sono impiegate in parallelo e integrate con infrastrutture esistenti. Big Data, IoT, AI e Machine Learning sono in testa al ranking di rilevanza per imprese. Assistiamo una forte crescita rispetto la precedente rilevazione, in particolare  crescono le tecnologie che consentono di acquisire, memorizzare, integrare e analizzare il dato”.

Tecnologie che non solo hanno permesso alle imprese di affrontare meglio la pandemia – le imprese più digitalizzate hanno infatti dichiarato riduzioni di fatturato minori rispetto a quelle più arretrate nel processo di digital transformation – ma che consentono anche di guardare alla ripresa con un maggiore ottimismo.

“È interessante vedere il legame tra le aspettative per 2021 e i cluster che sono allo stato dell’arte: aumenta la percentuale di imprese che guarda con maggiore ottimismo man mano che ci spostiamo verso cluster caratterizzati da una maggiore maturità digitale. Le imprese che hanno saputo investire in digitale e che non hanno interrotto questo durante la pandemia sono quelle che guardano con maggiore ottimismo alla ripresa”, aggiunge Bacchetti.

Persistono, tuttavia, ancora ostacoli all’adozione di queste tecnologie, prima tra tutti la mancanza delle giuste competenze.

“Occorre lavorare sulle competenze – continua Bacchetti – non solo riqualificando la forza lavoro, ma anche attraverso la ricerca di competenze esterne all’azienda. Il 75% delle aziende sa di non avere l’insieme delle competenze adeguate per realizzare questa transizione. Interessante evidenziare che mancano anche competenze soft, legate alla necessità di integrazione tra diverse componenti tecnologiche. Le persone devono essere formate anche nella gestione della complessità associata alla trasformazione tecnologica”. 

A questo sono rivolte le soluzioni IBM: potenziare l’essere umano, rendere le competenze più diffuse e far crescere le persone grazie all’integrazione IT/OT e alla semplificazione dell’utilizzo dei dati che viene dall’Intelligenza Artificiale.

“La pandemia ci ha mostrato che non possiamo più dipendere dal vecchio modo di portare avanti i processi”, commenta Emiliano Pacelli Applications Technical Sales leader di IBM Italia. “Per questo le aziende devono imparare a sfruttare le nuove tecnologie, come la vision inspection, grazie alla quale possiamo monitorare le immagini in tempo reale anche da remoto e i gemelli digitali, che consentono di predire come un sistema reagirà in determinate condizioni”. 

Valuta la qualità di questo articolo

C
Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

email Seguimi su

Articoli correlati

Articolo 1 di 4