L’integrazione dell’intelligenza artificiale (AI) sta cambiando profondamente l’interazione uomo-robot, consentendo alle macchine di spingersi oltre i confini delle fabbriche per inserirsi nel tessuto sociale e assistenziale.
Al centro di questa evoluzione vi è la robotica sociale, disciplina che si dedica alla progettazione, allo sviluppo e allo studio di robot capaci di interagire e comunicare in modo naturale con gli esseri umani.
Se l’evoluzione tecnologica ha permesso ai robot di comprendere lo spazio intorno a loro e agire in base a stimoli esterni, le applicazioni nel campo della robotica sociale richiedono alla tecnologia di fare un ulteriore salto nella direzione non solo della comprensione delle emozioni umane, ma anche nella capacità di replicarle a favore di un’interazione più naturale.
“La robotica sociale si occupa dello sviluppo di robot in grado di interagire in modo naturale con l’essere umano”, spiega la professoressa Mariacarla Staffa, esperta di interazione uomo macchina/robot, intelligenza artificiale e robotica cognitiva presso il Dipartimento di Scienze e Tecnologie dell’Università degli Studi di Napoli Parthenope.
“Parliamo di robot che non solo eseguono compiti fisici, ma che vivono in ambienti sociali: interpretano espressioni facciali, il tono della voce, rispondono ai segnali non verbali, adattandosi alle emozioni e alle personalità delle persone con cui interagiscono”.
Una differenza fondamentale, quindi, rispetto alla robotica industriale: se lì l’obiettivo è l’efficienza, qui è la relazione. È un cambio di paradigma che apre a scenari innovativi in ambiti come l’assistenza agli anziani, l’educazione inclusiva, il supporto a persone con disabilità, la terapia e la comunicazione.
Temi questi che saranno al centro della 17ª edizione dell’International Conference on Social Robotics + AI (ICSR+AI 2025), una delle principali conferenze internazionali dedicate allo studio dell’interazione tra esseri umani e robot intelligenti e all’integrazione della robotica sociale nella vita quotidiana.
Indice degli argomenti
Verso nuove interazioni uomo-robot: il modello umanocentrico europeo e la sfida sul fronte etico e regolamentativo
In vista dell’edizione 2025 della conferenza, che si terrà a Napoli dal 10 al 12 settembre, facciamo il punto dello stato dell’arte della robotica sociale e delle prospettive future con la professoressa Staffa, General Chair della conferenza.
“In Italia e in Europa vantiamo eccellenze scientifiche nella robotica sociale, con centri di ricerca e numerose università altamente specializzate”, spiega.
“Sicuramente, a livello di investimenti su scala industriale, l’Europa si trova in una posizione di svantaggio rispetto a grandi potenze, come gli USA e la Cina, che godono di ingenti incentivi e accesso a fondi pubblici e privati, oltre a ecosistemi tecnologici molto più aggressivi. D’altra parte, però l’Europa sta costruendo un’alternativa concreta attraverso il modello umanocentrico, in linea con il paradigma dell’Industria 5.0. Grazie anche ai diversi strumenti di finanziamento disponibili in Italia e in Europa per progetti legati alla robotica e all’intelligenza artificiale, si sta attuando una visione che punta a combinare le capacità computazionali dell’AI con quelle operative della robotica, integrandole con le competenze cognitive e decisionali tipiche dell’intelligenza umana. L’obiettivo non è sostituire l’uomo, ma creare tecnologie che collaborino con lui nel rispetto di valori etici, sociali e ambientali. In sostanza, l’intelligenza artificiale va governata con l’intelligenza umana“, sottolinea la professoressa.
Responsabilità: la parola chiave per applicazioni etiche ed accettate
Se umanocentrismo, etica e standard sono tre parole chiave che stanno influenzando e guidando lo sviluppo della robotica per applicazioni di interazione con l’uomo, altrettanto centrale è il tema della responsabilità.
“Man mano che i robot acquisiscono capacità decisionali più complesse, diventa imperativo stabilire chiare linee di responsabilità per le loro azioni e per le conseguenze che ne derivano. Questa esigenza non riguarda solo gli sviluppatori e i produttori, ma l’intero ecosistema coinvolto, inclusi gli operatori e gli utenti finali”, spiega Staffa.
Su questo fronte, la sfida è quella di bilanciare la necessità di promuovere fiducia nella tecnologia e quella di garantire una rigorosa responsabilità nel suo utilizzo.
“È fondamentale – afferma la professoressa – che le persone percepiscano la tecnologia non come una scatola nera incomprensibile, ma come uno strumento utile, trasparente e affidabile. Questo richiede non solo un design attento e validato, ma anche framework normativi che definiscano chiaramente chi è responsabile in caso di errore o di decisioni algoritmiche con esiti indesiderati”.
Oltre la logica e le capacità computazionali: la sfida dell’emotivation
Nonostante i progressi straordinari nel campo della robotica e dell’intelligenza artificiale, le macchine odierne presentano ancora un deficit fondamentale che ne limita l’integrazione profonda nell’interazione sociale: l’assenza della capacità di replicare le emozioni.
Sul fronte dei movimenti e delle capacità computazionali, la tecnologia ha fatto grandi passi in avanti. Pensiamo, ad esempio, alle prodezze che possono compiere robot come quelli di Boston Dynamics, o ai sistemi di AI che eccellono in compiti cognitivi complessi, elaborando volumi di dati e compiendo calcoli a velocità impensabili per l’uomo.
L’avvento dei Large Language Models (LLM), in particolare, ha migliorato significativamente l’interazione verbale, rendendo i robot più “accettabili” e intuitivi nell’ambito assistenziale e sociale, facilitando la comprensione delle interazioni da parte degli utenti.
Tuttavia, come sottolinea la professoressa Staffa, “i Large Language Models imitano il pensiero umano, ma non sono in grado di replicarlo veramente, soprattutto non riescono a imitare il meccanismo decisionale legato alle emozioni”.
Gran parte delle nostre decisioni quotidiane non deriva da un ragionamento logico elaborato, ma da risposte istintive ed emotive, un aspetto primordiale e innato che attualmente manca alle macchine.
Questo divario è emblematicamente espresso dal paradosso di Moravec, secondo cui ciò che è difficile per le macchine è facile per gli esseri umani, e viceversa: mentre un robot può eseguire capriole complesse o processare dati enormi, fatica a interpretare lo stato d’animo di una persona da uno sguardo o ad anticipare un’azione semplice come una stretta di mano, capacità che anche un bambino piccolo acquisisce senza addestramento.
Quindi anche se la robotica, oggi, è capace di prodezze fisiche e computazionali straordinarie, manca ancora un tassello decisivo: l’elaborazione emotiva. I robot possono eseguire movimenti complessi o risolvere problemi complessi in tempo reale, ma faticano a cogliere la tristezza nello sguardo di un interlocutore o a riconoscere l’intenzione dietro un gesto.
Ciò che ancora manca ai robot è sintetizzato da un termine che ha coniato la professoressa: “Emotivation”, ovvero la motivazione intrinseca che scaturisce dal cervello emotivo.
Emotivation, un neologismo nato dalla fusione di “emozione” e “motivazione”, è un concetto che si riferisce a una spinta all’azione che trascende il mero raggiungimento degli obiettivi di un compito specifico. Scaturisce dalla dimensione emotiva dell’interazione, da come una persona percepisce e reagisce a una determinata situazione, influenzando la decisione di agire, e anche il modo in cui l’azione viene compiuta. L’Emotivation è dunque una spinta motivazionale che nasce dai sentimenti, non solo da un ragionamento logico. Per esempio, si può scegliere di aiutare un collega non per obbligo, ma per empatia o affetto: una dinamica profondamente umana.
Nell’uomo, l’Emotivation è regolata dal sistema limbico e rappresenta la vera origine delle nostre scelte. Integrare questo principio nella robotica sociale significa sviluppare macchine che non si limitano a rispondere, ma agiscono perché sentono, almeno in senso simulato.
“Se caliamo il concetto di ‘Emotivation’ nell’ambito della robotica sociale, emerge una nuova esigenza progettuale: sviluppare sistemi capaci non solo di simulare le emozioni umane, ma di rendere l’interazione più naturale grazie all’integrazione dell’elaborazione emotiva. Questa integrazione deve agire come fonte di regolazione motivazionale, uno stimolo che ci fa agire in un modo o nell’altro in base al significato affettivo di un contesto di interazione”, spiega la professoressa.
Rendere i robot capaci di interpretare le emozioni umane: le soluzioni tecnologiche
Ma in che modo un robot può arrivare a comprendere le nostre emozioni e reagire di conseguenza? Dal punto di vista tecnologico vi sono diverse soluzioni.
“Ad esempio, se il robot è dotato di telecamere, possiamo lavorare con degli algoritmi che consentono di comprendere qual è la tua emozione a partire dall’espressione facciale”, aggiunge.
Algoritmi avanzati, come quelli basati su reti neurali, sono in grado di riconoscere in tempo reale se una persona sta sorridendo, è triste o corrucciata, analizzando le caratteristiche del volto. Sebbene questi sistemi possano presentare margini di errore, la loro accuratezza migliora analizzando le espressioni su finestre temporali più ampie, distinguendo così dalle microespressioni passeggere.
Altre tecniche, basate sempre su telecamere di profondità, permettono invece di analizzare la postura di una persona, fornendo indizi sul suo stato emotivo, ad esempio se è chiusa, aperta o a suo agio. Tuttavia, poiché gli esseri umani sono capaci di simulare le emozioni (mostrando un’espressione di gioia anche se provano dolore interiore), un’interpretazione ancora più corretta può venire dall’integrazione dell’analisi del comportamento osservabile con quella dei parametri fisiologici.
A tal fine, si esplora l’uso di sensori non invasivi per l’elettroencefalografia (EEG) o altri biomarcatori biologici autentici. Questi sensori rilevano parametri che non possono essere controllati razionalmente dall’essere umano, come l’accelerazione del battito cardiaco o l’attivazione di specifiche aree cerebrali.
Ad esempio, l’asimmetria frontale del cervello può indicare i livelli di stress o l’impegno cognitivo di una persona. Mettendo in relazione l’attivazione di diverse aree cerebrali, si riesce a classificare le emozioni in base alla loro intensità e valenza (positiva o negativa). Questo permette di distinguere, ad esempio, tra stati di eccitazione/gioia, ansia/stress, apatia/depressione o tranquillità/calma.
Combinando i dati derivanti dal comportamento osservabile con quelli dei segnali fisiologici, i sistemi di intelligenza artificiale possono correggere classificazioni errate e identificare un eventuale “mismatch” tra l’emozione esterna e quella reale.
L’integrazione di tutti questi algoritmi nell’intelligenza di un robot consente al sistema di adattare il proprio comportamento allo stato emotivo corrente della persona, rendendo l’interazione più naturale e appropriata. Ad esempio, se un robot rileva tristezza, potrebbe prolungare l’interazione o tentare di distrarre la persona.
Le applicazioni attuali e le sfide per la diffusione sul mercato
Oggi il campo della robotica sociale e assistiva, in particolare per quanto riguarda la personalizzazione e l’adattamento dell’interazione con i robot, è un filone di ricerca molto attivo.
“Esistono già numerose pubblicazioni e progetti che dimostrano come i robot possano adattare il loro comportamento non solo al contesto, ma anche alla personalità e allo stato emotivo di una persona, proprio come facciamo noi quando comunichiamo in modo diverso con persone diverse in base al loro carattere”, spiega la professoressa.
Questo approccio, definito “user-centered”, pone l’utente al centro della progettazione, integrando il feedback umano nel ciclo di percezione, pianificazione e azione del robot. L’obiettivo è andare oltre la mera imitazione delle emozioni, per permettere al robot di comprendere il ruolo fondamentale che le emozioni giocano nelle relazioni sociali e adattare di conseguenza le proprie risposte.
Nonostante gli avanzamenti significativi nelle capacità dei robot e nei modelli di intelligenza artificiale, le applicazioni per l’utilizzo autonomo in contesti reali come case di cura o private non sono ancora diffuse. La tecnologia è a un buon punto per quanto riguarda le competenze del robot e la sua capacità di adattamento, ma i limiti attuali sono prevalentemente di fattibilità tecnica ed economica.
“Robot umanoidi complessi, pur avendo raggiunto alti livelli di maturità tecnologica (TRL 6-7, ossia testati in ambienti reali), non sono ancora pronti per un’ampia adozione. Questo perché integrare tutti i processori necessari a bordo del robot ne triplicherebbe o quadruplicherebbe i costi, rendendo queste applicazioni non convenienti per un privato. Da questo punto di vista possiamo dire che la tecnologia è pronta, il mercato non abbastanza”, aggiunge.
International Conference on Social Robotics + AI: i temi, i programmi e gli ospiti della conferenza
E sono proprio questi i temi al centro della 17 ª edizione dell’International Conference on Social Robotics + AI, dal titolo “Emotivation at the Core: Empowering Social Robots to Inspire and Connect”.
La conferenza si svolgerà dal 10 al 12 settembre a Napoli, vede la professoressa Staffa nel ruolo di coordinatrice. Nel ruolo di honorary chair figura il prof. Bruno Siciliano, docente di robotica all’Università di Napoli Federico II, tra i massimi esperti internazionali nel settore e figura di riferimento per la comunità scientifica.
I lavori dei primi due giorni avranno luogo presso il Dipartimento di Scienze e Tecnologie dell’Università Parthenope di Napoli, situato nel Centro Direzionale. L’ultimo giorno la conferenza si sposterà centro congressi Città della Scienza.
Il programma, consultabile sul sito della conferenza, prevede l’alternarsi di keynote speech di rappresentanti di spicco della robotica sociale (sia accademici che provenienti dal mondo dell’industria), workshop e sessioni tematiche, competizioni e momenti di networking e svago.
Il primo giorno (10 settembre) sarà dedicato al keynote speech di Daniela Rus, Direttrice del Computer Science and Artificial Intelligence Laboratory (CSAIL) al MIT, una delle voci più autorevoli nel campo della robotica e dell’intelligenza artificiale.
Sempre il 10 settembre sono in programma diversi workshop e sessioni parallele su tematiche come arte e robotica, addestramento di modelli di linguaggio per personalità sociali, robotica umanocentrica e robotica per l’assistenza e la riabilitazione.
Nei due giorni successivi si svolgeranno le sessioni regolari, con la presentazione di 177 articoli scientifici accettati e cinque special session su argomenti quali robot collaborativi, interazione uomo-robot, l’intelligenza artificiale simbiotica ed etica e la Explainable AI.
Il programma include anche diverse competizioni per coinvolgere sia professionisti che studenti:
- Design competition, un’occasione per presentare nuovi design di robot e prototipi
- @Home competition, una sfida di programmazione che prevede l’utilizzo del robot umanoide Tiago di PAL Robotics per svolgere un determinato compito
- Hakathon, rivolta a studenti più giovani, con una formazione e una sfida sull’uso del robot da scrivania Probot dell’azienda Protom Robotics.
Tutte le sfide di programmazione si baseranno sul framework ROS (Robotic Operating System) e sul linguaggio Python.
L’ultimo giorno (12 settembre) ci saranno i keynote speech di:
- Jérôme Monceaux, Co-fondatore di Aldebaran Robotics e mente creativa dietro i celebri robot umanoidi Nao e Pepper. Con una visione che unisce tecnologia ed empatia, ha fondato l’azienda Enchanted Tools, dando vita a personaggi interattivi e strumenti innovativi come il robot antropomorfo/animalesco Mirokai
- Anuouk Wipprecht, designer olandese e pioniera della fashion tech. Crea abiti sensorizzati che integrano intelligenza artificiale per interagire con l’ambiente e con chi li indossa, mostrando come la tecnologia possa fondersi con la creatività.
La conferenza si concluderà con la tavola rotonda “Rising stars of women in robotics“, durante la quale ricercatrici, professoresse e leader aziendali discuteranno del divario di genere e della promozione delle donne nel settore. Seguirà la cerimonia di chiusura con la premiazione dei migliori articoli e dei vincitori delle competizioni.
Un’esperienza che unisce ricerca e cultura
Il programma è arricchito da eventi sociali che mirano a far vivere l’esperienza di Napoli, mettendo in luce il suo carattere dicotomico, tra antico e moderno, mare e fuoco.
“Questa filosofia rispecchia l’ossimoro che la conferenza intende esplorare: la tensione tra l’intelligenza artificiale incorporata in un artefatto robotico e la complessità del cervello e delle emozioni umane”, spiega la professoressa Staffa.
Le giornate inizieranno con sessioni di yoga e meditazione per il benessere dei partecipanti. Altri eventi in programma includono un welcome party al Circolo Canottieri, una gala dinner nella Chiesa di San Lorenzo Maggiore e una festa finale sulla terrazza Flegrea, con vista sul mare.
La conferenza ospiterà anche un’area espositiva dove aziende come Nevil Robotics, Furhat, Pal Robotics, Protom Robotics, Semio, Weefa Robotics, Martec mostreranno i loro stand, promuovendo la collaborazione con il mondo della ricerca.











