La robotica è stata a lungo considerata una tecnologia (relativamente) matura, le cui applicazioni erano destinate a essere confinate nelle gabbie delle celle di lavoro in fabbrica. La ricerca, invece, ha continuato a produrre svolte significative, dai materiali “morbidi” della soft robotics ai robot dalle forme ispirate alla natura, fino alla convergenza con l’intelligenza artificiale che oggi prende il nome di Physical AI. Bruno Siciliano – professore ordinario di automatica e robotica all’Università di Napoli Federico II, direttore del Prisma Lab e vincitore nel 2024 del Pioneer Award della IEEE Robotics and Automation Society, il riconoscimento più prestigioso del settore – è uno degli scienziati che da 35 anni guida questa evoluzione. Lo abbiamo incontrato per capire dove sta andando la disciplina e quali implicazioni concrete avrà per l’industria e la società.
Indice degli argomenti
Dal design classico alle forme bioispirate
Secondo il professor Siciliano uno dei momenti di svolta degli ultimi decenni è il passaggio dalla robotica industriale classica alla cosiddetta robotica avanzata – quella dei robot di servizio, dell’esplorazione e della collaborazione con l’uomo. Passaggio che ha ricevuto una spinta decisiva quando i ricercatori hanno abbandonato il paradigma della meccanica tradizionale per ispirarsi alla natura. “Si è osservato come si potesse riconcepire il concetto del design e avere delle forme bioispirate: il cane robotico, l’uccello robotico, il robot salamandra… sono tutti esempi di progettazione che non hanno seguito il paradigma classico”, spiega Siciliano.
Nel metodo tradizionale si progetta il sistema meccanico, lo si attrezza con sensori e attuatori e poi si costruisce un sistema di controllo. Nel nuovo approccio il design integra fin dall’inizio movimento, sensoristica e intelligenza, concependoli come elementi interdipendenti di un unico sistema coerente.
La Physical AI: quando il robot dà corpo all’intelligenza artificiale
Oggi la nuova frontiera è la cosiddetta Physical AI, un ambito che nasce dall’integrazione tra robotica e intelligenza artificiale, in cui sistemi capaci di percepire, decidere e agire nel mondo fisico diventano sempre più autonomi e adattivi.
In questo scenario il passaggio dall’intelligenza puramente digitale a sistemi dotati di un corpo diventa centrale. Come osserva Siciliano, con la embodied AI la robotica fornisce una dimensione fisica all’AI: “Alcune forme di intelligenza non risiedono solo nei modelli computazionali, ma emergono dall’interazione tra mente, corpo e ambiente. È questo il principio dell’embodiment”.
Il concetto è noto ai lettori di questo giornale, che ne hanno seguito lo sviluppo negli ultimi anni. Vale però la pena sottolinearne un aspetto spesso trascurato: l’embodiment non significa semplicemente montare un modello AI su un robot.
Se è vero che l’AI dà un cervello al robot, è anche opportuno sottolineare che il robot dà un corpo all’AI. E un corpo serve: non soltanto per agire, ma anche per imparare. Perché il corpo contribuisce all’intelligenza del sistema. La forma fisica, i sensori, il modo in cui il robot interagisce con l’ambiente generano informazioni che un’AI puramente digitale non potrebbe mai acquisire.
Democratizzazione della robotica e intelligenza naturale
Una delle potenzialità più rilevanti della Physical AI è la riduzione della distanza tra utente esperto e utente comune. “Come in ChatGPT non dobbiamo conoscere un linguaggio di programmazione, allo stesso modo potremo comandare un robot con linguaggio naturale, oppure avere un robot che si adatti alle nostre gestualità”, spiega Siciliano. È quello che il professore chiama “democratizzazione della robotica”.
Siciliano sgombra però il campo da un possibile fraintendimento: democratizzazione non significa appiattimento. “L’intelligenza artificiale è la chiave per sviluppare al meglio la nostra intelligenza naturale, con la parte creativa, le emozioni, i sentimenti”, afferma. L’AI fisica si farà carico di azioni più o meno autonome, alleggerendo lo stress psicofisico dell’uomo sia nel contesto lavorativo sia in quello sociale. Ma il valore aggiunto resta nella componente personale che ciascun individuo porta nell’interazione con la tecnologia.
Dalle tecnologie dell’informazione alle tecnologie dell’interazione
Un altro snodo concettuale riguarda la natura stessa delle tecnologie con cui interagiamo. Come rileva Siciliano siamo passati dalle tecnologie dell’informazione e della comunicazione alle tecnologie dell’interazione, in cui l’azione fisica assume un ruolo determinante. Ed è proprio questo passaggio che dovrebbe dissipare le paure legate alla sostituzione del lavoro umano.
“Ci sono lavori estremamente faticosi, dispendiosi o pericolosi per l’essere umano: è giusto che siano eseguiti dalle macchine”, osserva il professore. “La parte tradizionale della robotica industriale per la manifattura agile, la logistica, continuerà a esserci, anzi è potenziata dal fatto che ora è più intelligente”.
Un esempio già diventato prodotto commerciale è l’esoscheletro: nato nei laboratori di ricerca clinica neurologica per la riabilitazione dei pazienti con danni senso-motori, è ora una tecnologia indossabile utilizzata da operai, addetti alla logistica, infermieri, strumentisti di sala operatoria. “Non è che si è sostituita la persona col robot: è un robot che si indossa, che convive con l’essere umano e gli consente di esprimere le proprie capacità nella misura migliore”, sottolinea Siciliano.
Il tatto: il senso più sottovalutato e più importante
Se la visione artificiale è stata il primo senso sviluppato per i robot fin dagli anni Ottanta, il tatto rappresenta oggi una delle frontiere più promettenti — e al tempo stesso più complesse. “I neuroscienziati hanno sviluppato la rappresentazione dell’homunculus corticale, in cui mani e labbra appaiono sproporzionatamente grandi per riflettere l’elevata densità di recettori e di risorse neurali dedicate alla sensibilità tattile”, racconta Siciliano.
Questo dato neuroscientifico trova un parallelo diretto nello sviluppo dell’intelligenza umana. “Un neonato, nei primi mesi di vita, esplora il mondo attraverso il contatto: tocca gli oggetti con le mani e li porta alla bocca, che è una delle aree più sensibili dal punto di vista tattile. Questo gesto, apparentemente semplice, è in realtà un processo di acquisizione di informazioni, reso possibile proprio dall’elevata sensibilità tattile di mani e labbra”.
A differenza della visione, che produce dati oggettivi e misurabili, il tatto è un’esperienza personale e soggettiva. Ed è proprio questa dimensione soggettiva a renderne lo sviluppo tecnologico tanto difficile quanto necessario. “Dovremmo sviluppare una tecnologia che consenta di utilizzare i sensi umani, compreso il contatto, e di trasmettere questa intelligenza neuronale e corporale alla macchina”, afferma il professore. Una tecnologia che ancora non esiste pienamente ma su cui la ricerca sta già lavorando.
Dalla soft robotics al guinzaglio intelligente: le ricadute concrete
Il Prisma Lab di Napoli è stato tra i pionieri della manipolazione non prensile con il progetto RoDyMan, il robot pizzaiolo finanziato da un Advanced Grant dello European Research Council che dimostrò, grazie anche alla collaborazione con un artista-artigiano della pizza del calibro di Enzo Coccia, come un robot potesse manipolare oggetti deformabili come la pasta della pizza. Da quel progetto sono nate diverse evoluzioni, alcune delle quali decisamente sorprendenti.
“Ci siamo accorti che le problematiche di manipolare un oggetto senza afferrarlo sono concettualmente simili a quelle della deambulazione di un robot con gambe”, spiega Siciliano. “Il contatto di un effettore con un oggetto per manipolarlo in maniera non prensile è la stessa cosa, concettualmente, del passo di un robot quadrupede”. Alcune delle tecniche di controllo avanzato sviluppate nell’ambito di RoDyMan vengono oggi applicate all’adattamento dei robot quadrupedi a terreni sconnessi.
Le applicazioni più recenti riguardano l’agricoltura e la produzione animale, uno dei quattro pilastri su cui si concentra la ricerca europea in robotica e Physical AI. Ma la “chicca” – come la definisce lo stesso Siciliano – è un’altra: il laboratorio sta sviluppando un guinzaglio intelligente per cani robotici. “Potrebbe essere di ausilio a una persona con un visus basso, una persona cieca, oppure fare da scorta a una persona durante la visita di un museo”, racconta il professore. Un guinzaglio dotato di ritorno di forza, capace di guidare fisicamente l’utente nello spazio. “È un esempio di tecnologia che accompagna l’essere umano, secondo una visione tecnofila, in una prospettiva umanocentrica”.












