AI collaborativa e competitiva: la tecnologia in cerca di etica

L’Artificial intelligence ha bisogno di regole basate anche su valori e scelte etiche. Chi decide i principi da inserire in una tecnologia? E se viene usata per competere con gli altri, e quindi prevalere sugli altri?

Pubblicato il 19 Nov 2019

IntelligenzaArtificiale


L’intelligenza artificiale si sta sviluppando sempre di più. Le sue applicazioni, già operative o ancora sperimentali, continuano a crescere, in molti settori e attività.

Ma, considerando che cos’è l’Artificial intelligence (AI), e cioè “far fare alle macchine operazioni che se fatte dall’uomo richiederebbero intelligenza” (nella definizione della neuropsicologa Brenda Milner), tutto ciò solleva importanti questioni anche di carattere etico.

A cominciare da: chi decide i valori, e quindi le regole, da inserire in una tecnologia? E un’altra questione cruciale è questa: bisogna assumersi la responsabilità di dire, scegliere, decidere, che cosa può essere e che cosa non può essere automatizzato. Insomma, occorre fissare i paletti, i confini invalicabili. Decidere che cosa spetta all’uomo, e dove può arrivare la macchina. Fino a che punto e per quali ambiti decide la mente umana, e quanto spazio dare a quella artificiale. Le incognite sono già note e ben chiare, ma mancano ancora molte risposte.

In più, nello sviluppo e nell’utilizzo dell’AI, è il caso di evidenziare un altro aspetto importante: non esiste una sola Artificial intelligence. Ce ne sono almeno due, al proprio interno ha due anime: l’AI collaborativa e quella competitiva.

Questioni e prospettive analizzate anche nel corso di un recente convegno organizzato all’Università Bocconi di Milano da D-Avengers, “la community per i protagonisti della metamorfosi digitale” (come si definiscono), in collaborazione con Aica (Associazione italiana per l’informatica e il calcolo automatico) e Sda Bocconi.

Le due anime dell’Artificial intelligence

“Spesso si parla di Artificial intelligence come se fosse qualcosa di omogeneo e univoco. Invece, ci sono al suo interno due direzioni evidenti, due anime contrapposte”, fa notare Francesco Rainini, specialista Hi-tech che fa parte dell’Acceleration Team di Sas.

Che rimarca: “Ci sono due tipi di intelligenza artificiale, quella collaborativa e l’altra competitiva. La prima va bene se e quando tutti gli utenti hanno un obiettivo comune e condiviso. Per fare un esempio facile e concreto, è quello dell’App mobile di navigazione stradale Waze, basata sul concetto di crowdsourcing. In questo caso, l’intelligenza artificiale viene usata al servizio di tutti, e con il contributo di molti, in modo collaborativo appunto, per segnalare lo stato del traffico, ed evitare le code”.

È un’intelligenza artificiale condivisa, aperta, massificata e massificante. Come lo sono anche molte chat-bot, che forniscono assistenza a tutti quelli che ne hanno bisogno. E gli esempi potrebbero continuare a oltranza.

L’intelligenza artificiale competitiva

C’è poi, invece, l’AI competitiva, quella proprietaria, non aperta, quella che non si condivide. È l’Artificial intelligence fatta appunto per competere e non collaborare, per avere un vantaggio o un guadagno rispetto agli altri, e che esclude gli altri. È il caso esattamente opposto rispetto all’intelligenza artificiale collaborativa.

E, in ambito etico, mentre l’AI collaborativa ha per certi versi un funzionamento più trasparente, e soprattutto non vuole svantaggiare nessuno, le regole – anche etiche – alla base di sistemi e applicazioni di AI competitiva possono essere molto più opache, controverse, sleali e discutibili. “Cresce la consapevolezza della necessità di lavorare sui temi e contenuti etici”, rimarca Vera Schiaffonati, docente di Logica e Filosofia della Scienza al Politecnico di Milano, “ancora di più quando si ha a che fare con decisioni delicate e critiche, in molti ambiti sensibili. E quando l’intelligenza artificiale ha e avrà un impatto forte sulla vita degli individui e dell’intera società”.

I casi e gli esempi possono essere già numerosi, a partire da quelli nel campo medico e sanitario, o della giustizia, nel caso di un giudice che potrebbe avvalersi di algoritmi per definire una sentenza. Fino ai sistemi applicati alla selezione e valutazione del personale, alle industrie e al lavoro, alle armi e agli eserciti, o anche ai trasporti, auto a guida autonoma comprese.

Tecnologia e società si plasmano a vicenda

In sostanza, l’uomo ha ovviamente un ruolo primario e cruciale nel definire lo sviluppo delle nuove tecnologie e quindi anche dell’intelligenza artificiale, è pura Fantascienza – almeno per ora –, lo scenario di una tecnologia che evolve da sola e per conto proprio, indipendentemente dalla volontà umana.

In realtà, tecnologia e società si plasmano a vicenda (in inglese, ‘co-shape‘, termine che dà il nome a questo principio), ma occorre stabilire bene come plasmarle.

“Un approccio etico più ‘disinvolto’ rispetto a un’etica globale, come quello che applica ad esempio la Cina, in ambito di Privacy o di inquinamento, può dare rilevanti vantaggi competitivi, ma allo stesso tempo, o nel lungo periodo, avere effetti negativi e controproducenti per il bene e l’interesse comune”, rileva Schiaffonati. Che mette in guardia: “i nostri valori devono dare forma e contenuti agli algoritmi, nell’invisibilità delle operazioni informatiche“.

Occorre “moralizzare le nuove tecnologie, per renderle funzionali allo sviluppo, e non a una involuzione della nostra società”, e i principali rischi da scongiurare sono: “la riduzione dell’autonomia umana; il controllo delle macchine sull’uomo; rischi di immoralità o pigrizia morale; tecnocrazia al posto della democrazia”, sottolinea la docente di Logica e Filosofia della Scienza al Politecnico milanese.

Non delegare le scelte ai tecnologi

“L’etica in campo tecnologico e scientifico è un processo aperto e senza fine”, fa notare Norberto Patrignani, professore di Computer ethics al Politecnico di Torino. E osserva: “le tecnologie e le loro capacità vengono spesso descritte e proposte come un’alternativa all’uomo, devono invece essere dei cobot, devono essere viste e usate come risorse collaborative con l’uomo”.

E questo accade mentre “c’è una spinta enorme a delegare tutto al mercato, il risultato è una potenza enorme nelle mani dei tecnologi, e di chi controlla gli strumenti, e allo stesso tempo, se tutto ciò non è governato attentamente e correttamente, ci potrà essere un rischio enorme per l’umanità”.

Le macchine imparano in due modi

“L’etica non è solo fredda razionalità. Ma è anche e soprattutto cuore, valori, capacità di distinguere tra bene e male. Tutte prerogative che i computer non hanno oggi e non avranno mai”, rimarca Franco Filippazzi, ingegnere informatico protagonista di molte innovazioni dell’Olivetti negli anni Sessanta e Settanta, e per questo socio onorario dell’Aica.

Le macchine e i computer, poi, e in questo contesto vale la pena sottolinearlo, ‘imparano’ in due modi, esistono due tecniche di apprendimento (Machine learning): quelle supervisionate dall’uomo, e quelle non supervisionate, automatizzate in tutto e per tutto. E sono ancora di più queste ultime le modalità di sviluppo dell’intelligenza artificiale che risultano delicate e critiche dal punto di vista etico, delle tegole da seguire, dei confini da non oltrepassare.

Valuta la qualità di questo articolo

C
Stefano Casini

Giornalista specializzato nei settori dell'Economia, delle imprese, delle tecnologie e dell'innovazione. Dopo il master all'IFG, l'Istituto per la Formazione al Giornalismo di Milano, in oltre 20 anni di attività, nell'ambito del giornalismo e della Comunicazione, ha lavorato per Panorama Economy, Il Mondo, Italia Oggi, TgCom24, Gruppo Mediolanum, Università Iulm. Attualmente collabora con Innovation Post, Corriere Innovazione, Libero, Giornale di Brescia, La Provincia di Como, casa editrice Tecniche Nuove. Contatti: stefano.stefanocasini@gmail.com

email Seguimi su

Articoli correlati

Articolo 1 di 4