SENSING AVANZATO

La percezione event driven e il futuro dell’interazione tra uomo e robot



Indirizzo copiato

Ispirandosi al sistema nervoso umano, il laboratorio Event Driven Perception for Robotics dell’IIT di Genova lavora allo sviluppo di tecnologie innovative in grado di migliorare e rendere più efficienti i “sensi” dei robot umanoidi (e non solo). Utilizzando “event camera” che, come la retina, percepiscono solo i cambiamenti, i robot acquisiscono una reattività quasi istantanea con un consumo energetico ridottissimo. Le applicazioni? Dalla presa al volo nel pick and place alla sicurezza dell’operatore, fino al tatto neuromorfo per un’interazione uomo-robot più efficiente e sicura.

Pubblicato il 13 giu 2025



icub_event-driven



L’efficienza del sistema nervoso umano, capace di elaborare stimoli complessi con un dispendio energetico minimo, rappresenta un modello di riferimento e una delle principali sfide per la robotica umanoide (e non solo). Il gruppo di ricerca Event Driven Perception for Robotics dell’Istituto italiano di tecnologia (IIT) di Genova, coordinato da Chiara Bartolozzi, sta esplorando un approccio che si discosta nettamente dall’impostazione digitale tradizionale. La ricerca si concentra sulla percezione guidata dagli eventi (event-driven), una tecnologia che promette di rendere i robot non solo più veloci, ma anche energeticamente più sostenibili e intrinsecamente più sicuri nell’interazione con l’uomo e con ambienti non strutturati.

Ispirarsi alla biologia per una robotica efficiente

I sistemi digitali convenzionali operano in modo sequenziale: eseguono un’istruzione alla volta, raggiungendo alte velocità a costo di un consumo energetico considerevole. Questo approccio, basato su processori che scandiscono il tempo con clock a frequenze elevate, costringe la macchina a processare enormi quantità di dati, molti dei quali ridondanti. Il sistema nervoso, al contrario, lavora in parallelo e in modo asincrono.

“Cerchiamo di trasmettere al robot tutto ciò che il mondo animale e umano riesce a fare, perché è una macchina perfetta”, spiega Luna Gava, ricercatrice del pool che lavora presso il Center for Robotics and Intelligent Systems (CRIS) di Genova dell’IIT.

Nel nostro corpo miliardi di neuroni elaborano piccole porzioni di un compito simultaneamente, attivandosi solo quando ricevono uno stimolo significativo. Questa architettura distribuita permette di ottenere una reattività straordinaria con un consumo irrisorio, stimato intorno ai 20 W per il cervello umano.

L’obiettivo della robotica neuromorfica è replicare questo modello di efficienza. Invece di processare un flusso costante di informazioni, i sensori e gli algoritmi “event-driven” si attivano selettivamente, solo quando accade qualcosa di rilevante, filtrando il rumore e concentrandosi sull’essenziale.

Vedere come la retina umana: le event camera per una visione veloce ed efficiente

Il cuore di questo approccio risiede in una sensoristica radicalmente diversa. Le “event camera”, o telecamere a eventi, di cui sono dotati i robot umanoidi come la versione speciale di iCub con la quale lavora il pool dell’IIT, non acquisiscono immagini intere (frame) a intervalli di tempo fissi, ma imitano il funzionamento della retina umana. Ogni pixel del sensore è indipendente e asincrono, dotato di un proprio circuito che monitora la luce che lo colpisce e rileva unicamente le variazioni di luminosità nel tempo (contrasto temporale). Quando un cambiamento supera una certa soglia, il pixel genera un “evento”: un impulso digitale che contiene le coordinate del pixel (x, y), l’istante preciso in cui è avvenuto (con una risoluzione temporale dei microsecondi) e la sua polarità (aumento o diminuzione della luce).

Il risultato non è una sequenza di fotografie, ma un flusso di dati che rappresenta unicamente il movimento e i cambiamenti nella scena. Questo approccio comporta vantaggi significativi: la reattività è quasi istantanea, eliminando il “vuoto” informativo che intercorre tra due frame di una telecamera convenzionale. Il volume di dati, poi, è enormemente più compatto, poiché le informazioni statiche e quindi ridondanti vengono ignorate alla fonte.

Si ottiene così un minor consumo di memoria e, soprattutto, di potenza.

Altro vantaggio è l’altissimo range dinamico (HDR), che permette a queste telecamere di operare efficacemente sia in condizioni di scarsa illuminazione che di luce abbagliante, senza rimanere accecate o produrre immagini sature. L’assenza di frame elimina infine il problema del “motion blur”, il trascinamento dell’immagine tipico degli oggetti in rapido movimento, garantendo una percezione sempre nitida.

Dalla fabbrica all’assistenza: le applicazioni

Le implicazioni di questa tecnologia sono profonde, specialmente nel contesto industriale e della collaborazione uomo-macchina. La capacità di reagire in pochi millisecondi a un cambiamento offre la possibilità di far funzionare i robot in scenari in cui sicurezza ed efficienza sono fondamentali.

Sicurezza e reattività nell’ambiente di lavoro

In un ambiente di co-working tra uomo e robot la sicurezza è la priorità assoluta. In un’applicazione studiata da IIT, un robot dotato di visione a eventi è in grado di monitorare un operatore umano e identificare la pressione di un pulsante di emergenza in un lasso di tempo minimo.

Ma la vera potenzialità emerge nelle interazioni non pianificate: se la mano di una persona entra inaspettatamente nell’area di lavoro del robot, il movimento rapido genera un’immediata e densa cascata di eventi, permettendo al sistema di arrestarsi o modificare la traiettoria quasi senza ritardo.

Lo stesso principio si applica al rilevamento di cadute in ambito assistenziale, dove la dinamica di un corpo che cade produce una “firma” inequivocabile nel flusso di eventi, consentendo di lanciare un allarme immediato.

Ottimizzazione dei processi produttivi

Un altro campo di applicazione è l’automazione industriale. In uno studio comparativo, i ricercatori hanno dimostrato come un braccio robotico equipaggiato con una event camera riesca a seguire e afferrare al volo un oggetto in movimento su un nastro trasportatore (“grasping on the fly”) in modo molto più fluido e preciso rispetto a un sistema basato su frame.

Il controllo a feedback di un robot si basa su dati costanti per correggere la propria azione; un flusso di dati ad altissima frequenza e bassissima latenza come quello a eventi rende questo ciclo di controllo estremamente più stabile. “Se ho un vuoto tra due frame, come accade con le telecamere tradizionali quando un oggetto è molto veloce, la macchina può deviare completamente dalla traiettoria”, sottolinea Gava. “La camera a eventi, invece, continua a seguirla”. Questa capacità consente di velocizzare i processi produttivi, eliminando la necessità di fermare la linea per operazioni di pick and place o di ispezione qualità.

Il tatto neuromorfo

I principi della percezione guidata dagli eventi non si limitano alla visione. Il team di IIT sta lavorando per applicare lo stesso concetto al senso del tatto, creando una pelle artificiale i cui sensori generino un segnale solo nel momento e nel punto in cui avviene un contatto o una variazione di pressione.

I sensori tattili tradizionali, al contrario, inviano costantemente dati da tutta la superficie, anche quando non succede nulla, generando un inutile sovraccarico. Un sistema neuromorfo, invece, sarebbe intrinsecamente più efficiente: un robot che tiene in mano un oggetto delicato, ad esempio, riceverebbe un segnale solo se questo iniziasse a scivolare, percependo le micro-vibrazioni e le variazioni di pressione e potendo così aggiustare la presa istantaneamente. Questo renderebbe l’interazione fisica tra uomo e robot più sicura ed efficiente, un passo fondamentale per la robotica collaborativa e assistenziale.

La combinazione di una vista e un tatto che lavorano sull’essenziale, sul cambiamento, disegna il profilo di un’intelligenza artificiale incarnata (embodied), più robusta, efficiente e, in ultima analisi, più vicina a quella biologica.

Articoli correlati

Articolo 1 di 5