Dalle tecnologie dell’informazione alle tecnologie dell’interazione: l’affermazione della robotica personale tra opportunità e dilemmi etici

Dall’invenzione del primo robot industriale, nel 1959, la robotica si è evoluta verso macchine sempre più intelligenti, meno ingombranti e più autonome, in grado di operare in ambienti non più separati dall’uomo, ma a contatto con esso.

I primi vent’anni del XXI secolo hanno visto affermarsi i robot di servizio, definiti dall’International Federation of Robotics come robot in grado di lavorare “in maniera autonoma o semi-autonoma per compiere servizi utili al benessere degli esseri umani, al di fuori del contesto manifatturiero”.

Con la robotica di servizio i robot quindi passano dall’essere “macchine in grado di svolgere dei compiti in maniera automatizzata per sostituire o migliorare il lavoro umano” (come nella definizione data dal Robot Institute of America nel 1980) a macchine al servizio del benessere dell’uomo.

Ma non solo. Usciti dalla fabbrica, i robot sono utilizzati oggi in numerose applicazioni che li vedono impegnati in interazioni con l’uomo: dal campo sanitario, dove vengono utilizzati sia nell’ambito chirurgico che assistenziale – per esempio nei percorsi riabilitativi e nell’assistenza alle persone fragili – al retail (assistenza ai clienti), agli ambienti educativi, fino all’utilizzo dei robot per l’intrattenimento degli umani.

Nuove applicazioni nate grazie all’intersezione di diverse discipline e dalla creazione di nuove aree di ricerca, come nel caso della biomeccanica, delle interfacce aptiche, le neuroscienze, il Machine Learning, i progressi in Intelligenza Artificiale e sensoristica, e molto altro.

Applicazioni che spingono però anche a pensare alle implicazioni etiche, legali, sociali ed economiche di questi sistemi artificiali nell’interazione con l’uomo. Di questo si occupa la roboetica, disciplina nata nel 2002 che analizza la complessa relazione che lega l’essre umano libero ai suoi artefatti intelligenti e autonomi.

Dalla robotica di servizio alla robotica personale

I prossimi anni vedranno, secondo gli esperti, evolvere la robotica di servizio verso la robotica personale, dove i robot entreranno a far parte di molti aspetti della vita quotidiana degli umani, fino a diventare dei veri e propri assistenti personali.

“Si è passati dalle Tecnologie per l’Informazione e la Comunicazione (ICT) alle Tecnologie per l’Interazione (IAT, InterAction Technologies). La questione che stiamo affrontando ora è se questi robot dovranno avere sembianze umane, come ad esempio sostengono i giapponesi”, spiega Bruno Siciliano, Professore ordinario di automatica all’Università di Napoli Federico II, Direttore del Centro ICAROS (Centro Interdipartimentale di Chirurgia Robotica) e Coordinatore del PRISMA Lab (Laboratorio di Progetti di Robotica Industriale e di Servizio, Meccatronica e Automazione).

Una tesi che affonda le sue radici nello shintoismo giapponese, spiega il Professore, che ha portato alla diffusione tra buona parte della popolazione nipponica della convinzione che anche le macchine hanno un anima e che per poter interagire con l’uomo devono avere sembianze umane.

Diverse aziende già si stanno muovendo in questa direzione: è il caso di Tesla, che nell’agosto 2021 ha annunciato la creazione del Tesla Bot, un robot umanoide che assisterà l’uomo in diverse mansioni quotidiane, dal lavoro al fare la spesa.

La robotica sociale e la sfida di rendere l’interazione uomo-macchina accettabile e familiare

Alla base di questo dibattito c’è molto di più che l’influenza dello shintoismo giapponese, quanto piuttosto la necessità di creare interazioni sociali tra robot e uomo, necessarie al raggiungimento della finalità per cui la macchina è stata creata.

Di questo si occupa la robotica sociale, dove l’interazione con gli esseri umani è una componente costitutiva della tecnologia. Non si tratta solamente di programmi dotati di corpi fisici, ma anche di programmi non incorporati  (o disembodied, come nel caso dei chatbot) o programmi dotati di corpi virtuali (avatar).

L’efficacia di questi robot è legata allo sviluppo di tecnologie che consentano di ottenere un’interazione personalizzata, che tenga conto della correlazione tra la percezione dell’assistito, le sue caratteristiche personali – compresi il coinvolgimento emotivo e il grado di accettazione del robot – e le azioni compiute da quest’ultimo.

Nella robotica sociale, dunque, la dimensione tecnica e la dimensione sociale sono inestricabilmente connesse. Per quanto concerne la dimensione tecnica, una delle principali sfide riguarda la progettazione di questi sistemi, in particolare delle tecnologie che devono rendere il sistema in grado di potersi integrare nei contesti sociali d’uso.

Altra sfida riguarda proprio l’interazione con l’uomo, che deve essere percepita da quest’ultimo in modo familiare e quindi quanto più possibile simile all’interazione con un altro essere umano. Di questo si occupa il design delle interazioni, che ha lo scopo di rendere il sistema efficiente su due diversi livelli di interazione: effettivo e percettivo.

L’obiettivo del livello effettivo è quello di riprodurre a livello computazionale le competenze sociali umane, che vuol dire rendere il robot in grado di svolgere effettivamente alcuni compiti.

“Ad esempio, se sto lavorando a un chatbot per la gestione della clientela in una compagnia telefonica, il livello effettivo mi richiederà di preparare un software che sia effettivamente in grado di comprendere la richiesta dell’utente, svolgere le varie operazioni per soddisfare questa richiesta, oppure connetterlo con un operatore umano”, spiega Fabio Fossa, ricercatore presso il Dipartimento di Ingegneria Meccanica del Politecnico di Milano, dove si occupa di filosofia degli agenti artificiali ed etica dei veicoli autonomi.

A livello percettivo, la progettazione del sistema è volta a generare delle risposte emotive dell’utente utili allo scopo che il progettista vuole ottenere, attraverso l’utilizzo di design clues (indizi di design) che rendono adeguato agli scopi prefissati il modello mentale che l’utente si forma dell’oggetto robotico durante l’interazione.

“Nella situazione precedente, ad esempio, questo vorrebbe dire che se voglio fare in modo che l’utente si fidi dell’assistente virtuale o che sia ben disposto nei suoi confronti, posso pensare di dotarlo di un avatar e progettare questo corpo virtuale utilizzando dei caratteri che so essere veicolo di fiducia”, aggiunge Fossa.

L’estetica può quindi giocare un ruolo importante nella creazione di questi legami emotivi. Oltre ad essere sicuro e autonomo, un robot destinato a condividere lo spazio con gli essere umani deve anche essere esteticamente apprezzabile.

Le sue forme devono seguire i criteri estetici di base che sottintendono alla coesistenza civile e all’esistenza umana stessa: simmetria, armonia, bellezza.

Le problematicità etiche legate all’utilizzo dei bias nell’Intelligenza Artificiale

Oltre che attraverso elementi estetici, la familiarità dell’interazione può essere raggiunta sfruttando i bias, ovvero quei pregiudizi che utilizziamo per dare senso alla realtà che ci circonda. Delle vere e proprie “scorciatoie” con cui semplifichiamo qualcosa di molto complesso.

L’analisi di quelle che sono le aspettative degli utenti in determinati contesti e interazioni sociali è utile alla progettazione dei robot sociali e al raggiungimento delle finalità che si propongono.

“Per i designer questo è un tesoretto da sfruttare, perché se si riesce a capire cosa determina le aspettative sociali, si può progettare il robot in modo che sia adeguato a queste aspettative. È la porta di ingresso che conduce a dimensione di familiarità che è così importante nella robotica sociale”, spiega Fossa.

Tuttavia, se utilizzati indiscriminatamente questi bias possono essere molto problematici, in quanto si basano su convinzioni che spesso non hanno alcun fondamento logico. Un esempio riguarda i bias di genere: in molti contesti a caratteristiche maschili viene associata autorevolezza e rispetto, mentre alcune caratteristiche prettamente femminili vengono maggiormente apprezzate in alcuni contesti assistenziali.

Sfruttare questi bias, da un lato, contribuisce a rendere l’interazione più familiare all’utente e porterebbe il sistema a realizzare con successo il compito per cui era stato progettato. Dall’altro, vi è il rischio di legittimare questi pregiudizi e di contribuire alla loro propagazione.

Il problema dell’inganno

Anche l’interazione stessa tra uomo e macchina, alla base della robotica sociale, non è esente da problematiche di tipo etico. Per spiegarle, facciamo un passo indietro e torniamo al design delle interazioni.

“In base a come il designer bilancia il ricorso ai due livelli (effettivo e percettivo) per modellare l’interazione, posso indurre in inganno gli utenti, facendogli credere che il sistema sia qualcosa che effettivamente non è. Non è un attore sociale, o per lo meno non nell’accezione più diffusa, ma posso farlo percepire come tale, oppure come se fosse un essere vivente”, spiega Fossa.

Questo è il ragionamento alla base del “problema dell’inganno”. Da un punto di vista etico, è giusto ingannare l’utente per migliorare la qualità delle relazioni uomo-macchina?

Su questo tema, il dibattito si è diviso tra due principali correnti di pensiero, che si riconducono a due correnti filosofiche: l’etica del dovere e l’etica delle conseguenze.

Secondo l’etica del dovere, ingannare l’utente, anche se a suo vantaggio, non è etico. Si tratta di una corrente di pensiero basata sulla deontologia, dove l’attenzione è posta sull’allineamento tra un’azione data e ciò che è giusto in sé, senza considerare cosa avviene dopo aver intrapreso l’azione.

I sostenitori di questa teoria –  tra cui troviamo Robert Sparrow, professore presso il Monash Bioethics Centre della Monash University (Melbourne) – affermano che l’utilizzo di questa tipologia di robot mette a rischio valori di fondamentale importanza per l’uomo, come la dignità umana, l’autonomia del singolo e l’autodeterminazione.

L’utilizzo di questi sistemi per interazioni con persone fragili, come nel caso dell’assistenza agli anziani, sarebbe dunque ancora più problematica dal punto di vista etico, in quanto si tratta di persone che si trovano già in una condizione di fragilità. Ad esempio, si può trattare di individui isolati socialmente e che presentano dunque un forte bisogno di interazioni umane.

Ridefinire questo bisogno (moralmente lecito) attraverso l’adozione di robot sociali viene visto, dall’approccio che si basa sull’etica del dovere, come una mancanza di rispetto nei confronti di un soggetto vulnerabile.

La problematicità di questa teoria risiede sia nella sua rigidità – in quanto esclude a priori l’acccettabilità e la legalità di queste applicazioni della robotica sociale – e nel fatto che, pur nascendo da una volontà di protezione nei confronti del soggetto fragile, individua l’utente come un soggetto non in grado di interpretare l’interazione con il sistema come un’interazione fittizia.

Anche questo rappresenta, sostengono i detrattori dell’approccio basato sull’etica del dovere, una mancanza di rispetto verso le capacità dell’utente, in quanto la discrezione di ciò che è reale da ciò che è fittizio è una capacità che esercitiamo tutti i giorni, ad esempio nella lettura di un libro o durante la visione di un film. Il fatto che una storia non sia reale non vuol dire che non possiamo apprezzarla o che non ci possa suscitare sentimenti positivi.

Al contrario, i sostenitori dell’etica delle conseguenze danno al problema dell’inganno una risposta più aperta. Secondo chi sostiene questa teoria – tra cui troviamo l’informatico Noel Sharkey, l’economista e sociologa Amanda Sharkey e il Ronald Arkin (robotista e roboeticista e professore presso la School of Interactive Computing del Georgia Institute of Technology) – l’inganno è accettabile se non sfrutta la debolezza degli utenti per fini diversi dal loro benessere e se ben dosato, cioè se l’utente riesce a sviluppare un modello mentale razionale rispetto alla tecnologia (quindi è in grado di capire che l’interazione è fittizia).

Una teoria molto più possibilista, dunque, ma non esente da problematiche: come definire il bene degli utenti? Come rendere accettabile l’inganno? E, infine, come evitare abusi?

Proprio su questo punto Siciliano riporta un esempio molto calzante: prendiamo il caso di un robot utilizzato nell’assistenza a un anziano che sta seguendo una terapia. Cosa deve fare il robot nel caso in cui l’anziano si rifiuta di prendere i farmaci? Può intervenire? Deve forzarlo? In quel caso, cosa costituisce il bene dell’utente, non essere costretto ad andare contro la propria volontà, pur se sbagliata, o seguire la terapia prescritta dai medici?

I veicoli a guida autonoma e i dilemmi delle collisioni inevitabili

Un ragionamento simile può essere applicato anche ai veicoli a guida autonoma che, da un lato, “possono contribuire a proteggere l’integrità fisica, riducendo drasticamente il numero delle vittime degli incidenti stradali. Dall’altro, è possibile che essi debbano affrontare dilemmi morali posti dai ben noti esperimenti mentali sugli stati di collisione inevitabili“, spiega Siciliano.

Per spiegare questi dilemmi possiamo fare riferimento al “dilemma del carrello ferroviario”, formulato nel 1967 da Philippa Ruth Foot. In questo, un autista di un tram conduce un veicolo in grado solamente di cambiare rotaia, senza possibilità di fermarsi. Sul binario percorso dal tram si trovano cinque persone legate e incapaci di muoversi, mentre su un altro binario parallelo si trova solamente una persona, anch’essa legata e incapace di muoversi.

In questo dilemma etico, l’unica scelta che ha l’autista è quella di lasciare che il tram faccia la sua corsa, uccidendo quindi le cinque persone, oppure intervenire per portare il tram a percorrere il binario parallelo, uccidendone solo una.

Un veicolo a guida autonoma potrebbe trovarsi difronte a un dilemma simile. Ipotizziamo che stia trasportando un bambino a scuola, figlio del proprietario del veicolo, e che dal nulla si trova davanti due pedoni. Quale aspetto deve prevalere: il desiderio, lecito, del proprietario del veicolo di vedere il proprio figlio accompagnato in sicurezza a scuola, oppure la salvaguardia di più vite umane?

Verso un nuovo umanesimo tecnologico

“Al di là di tutta la tecnologia più sofisticata che noi tecnologi possiamo sviluppare, questo richiede una profonda riflessione e il coinvolgimento di sociologhi, psicologi, esperti legali per quanto riguarda la responsabilità”, commenta Siciliano.

Tante altre sono le questioni etiche associate al crescente utilizzo della robotica (e più in generale alle tecnologie dell’automazione) di cui si potrebbe parlare – pensiamo, ad esempio, alla disoccupazione tecnologica, ossia il rischio di perdere il lavoro come conseguenza dell’automazione di professioni o task.

E sono questioni che vanno urgentemente affrontate, sostengono Siciliano e Fossa, in un’ottica di confronto aperto che deve andare ben oltre al dibattito, spesso troppo semplicistico, tra amanti della tecnologia e tecnofobi.

“Stiamo andando verso un umanesimo tecnologico – conclude Siciliano – A distanza di 100 anni dall’ingresso della parola robot nel nostro lessico, la sfida e allo stesso tempo l’opportunità che il mondo della ricerca dovrà rappresentare è relativa a futuri scenari in cui la robotica diventerà un mezzo interattivo per contribuire a migliorare le condizioni di vita. In questa visione, la rivoluzione dei robot potrà aiutarci a riaffermare la caratteristica meno artificiale del nostro mondo: la nostra umanità”.

© RIPRODUZIONE RISERVATA

Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

*

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.