Filtrare, e valorizzare al meglio, enormi quantità di informazioni, per ricavarne il ‘succo’ più significativo e interessante: una nuova teoria di calcolo apre la strada allo sviluppo delle ‘macchine matematiche‘, sistemi ideati per risolvere problemi complessi attraverso l’analisi dei dati, traendone maggiore valore concreto.

È stata messa a punto da gruppo italiano di ricercatori presso l’Arces (Advanced research center on electronic systems) ‘Ercole De Castro’, centro di ricerca dell’Università di Bologna.

In pratica, utilizzando Big data e Deep learning dei computer, è stato trovato un nuovo modello matematico, come motore che fa girare algoritmi e analisi Hi-tech, per creare sistemi artificiali intelligenti che stanno alla base dell’Artificial intelligence applicata non solo alla ricerca scientifica, ma anche a operazioni molto concrete. Lo sviluppo di nuovi algoritmi e metodologie computazionali rende possibile fare cose prima tecnicamente impossibili.

Già nel 2006 Clive Humby, un matematico inglese, aveva osservato “i Dati sono il nuovo petrolio”: i dati sono per la rivoluzione dell’Artificial intelligence la stessa cosa che i combustibili fossili sono stati per la rivoluzione industriale negli ultimi tre secoli. Ma i dati, come il petrolio, da soli non possono generare valore, perché devono essere raffinati, elaborati e analizzati. E, in tutta questa catena di lavorazione, gli algoritmi giocano un ruolo strategico.

Un algoritmo è un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui, in un tempo ragionevole. E nell’immenso mare dei Big data, tra grandi quantità di informazioni da esplorare e analizzare, “trovare rapidamente e con precisione le risposte che si stanno cercando è sempre più fondamentale”, rileva Patrizio Frosini, professore associato al Dipartimento di Matematica dell’Università di Bologna, che ha collaborato allo studio: “per farlo esistono sistemi di Deep learning capaci di apprendere compiti specifici a partire dall’analisi dei dati disponibili”.

Fino a oggi però, descrivere questi complessi meccanismi matematici, individuandone i singoli componenti, non era affatto semplice: “abbiamo messo a punto una nuova teoria matematica grazie alla quale è possibile arrivare a estrarre le informazioni più importanti a partire dal grande universo di quelle disponibili”.

Algoritmi sempre meno a guida umana

I calcolatori automatici degli Anni ’70 sono un primo esempio concreto di ‘Intelligenza artificiale‘, se utilizziamo la definizione di Andrew Moore, professore di Machine learning alla Carnegie Mellon University, che la identifica come “la scienza che sa far realizzare alle macchine quelle cose che pensavamo fosse capace di fare solo l’uomo”.

Ma dagli Anni ’70 la capacità dell’uomo di creare computer più efficienti e di scrivere algoritmi adatti agli stessi computer è cresciuta in maniera sempre più veloce. In particolare, quello che da qualche anno stiamo sperimentando concretamente è qualcosa di ancora più innovativo e sorprendente, e cioè la capacità delle macchine di modificare gli algoritmi stessi rendendoli più efficienti.

Questo passaggio cambia di fatto la natura degli algoritmi che, da procedimenti statici a miglioramento periodico ma lento, e guidato dall’uomo, si trasformano in oggetti dinamici sempre meno a guida umana.

‘Operatori’ per i Big data

Nato nel campo della topologia computazionale – un’area di ricerca che unisce matematica e informatica – lo studio dei ricercatori italiani, che è stato anche pubblicato su Nature Machine Intelligence, presenta un nuovo modello scientifico in grado di descrivere come il mondo dei dati venga filtrato e trasformato in maniera adeguata e più efficace, al servizio della conoscenza e dell’innovazione.

Gli elementi fondamentali di questo modello sono macchine che trasformano le informazioni, chiamate ‘operatori’, che possono essere combinate in reti molto complesse. “Studiare le proprietà di questi operatori ci permette di comprendere meglio il loro funzionamento, e rendere quindi più efficienti i sistemi di elaborazione dei dati”, spiega Frosini.

Che sottolinea: “questi sistemi sono in grado di produrre sintesi significative di grandi basi di dati, e si spera possano in futuro arrivare a riconoscere somiglianze tra due forme con la stessa abilità di un essere umano: una capacità che potrebbe essere applicata, ad esempio, in campo medico e scientifico, per interpretare in modo corretto i sintomi di una malattia”.

Se, come rileva il filosofo della scienza Karl Popper, “tutta la vita è risolvere problemi”, allora gli algoritmi sono stati, sono e saranno sempre uno dei principali strumenti di innovazione per l’uomo.

Stefano Casini

Giornalista specializzato nei settori dell'Economia, delle imprese, delle tecnologie e dell'innovazione. Dopo il master all'IFG, l'Istituto per la Formazione al Giornalismo di Milano, in oltre 20 anni di attività, nell'ambito del giornalismo e della Comunicazione, ha lavorato per Panorama Economy, Il Mondo, Italia Oggi, TgCom24, Gruppo Mediolanum, Università Iulm. Attualmente collabora con Innovation Post, Corriere Innovazione, Libero, Giornale di Brescia, La Provincia di Como, casa editrice Tecniche Nuove. Contatti: stefano.stefanocasini@gmail.com

Stefano Casini ha 114 articoli e più. Guarda tutti gli articoli di Stefano Casini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Pin It on Pinterest