Che cos’è (e perché è indispensabile) l’etica del mondo digitale

L’etica del mondo digitale riguarda tre ambiti – dati, algoritmi e persone – ed è indispensabile per governare le tecnologie in maniera adeguata

Pubblicato il 13 Mar 2019

etica digitale

Già oggi, ma sempre di più in futuro, l’etica del mondo digitale deve fondarsi e poggiare su tre pilastri. Tre assi di sviluppo paralleli e complementari, da gestire insieme: un’etica dei dati, un’etica degli algoritmi e un’etica delle persone, dei professionisti Hi-Tech.

“Occorre un’analisi etica dello sviluppo tecnologico, occorre definire ciò che sarà socialmente accettabile, legalmente definito e riconosciuto, altrimenti il rischio è quello di ritrovarci una tecnologia gestita male, fuori controllo e che può essere addirittura dannosa”, fa notare Helga Nowotny, sociologa dell’Università di Vienna, co-fondatrice dell’European Reserch Council (Erc), e autrice del libro ‘The cunning of uncertainty‘ (L’astuzia dell’incertezza, riferita all’abilità di muoversi in un mondo molto innovativo ma altrettanto incerto).

Obiettivo dell’etica Digitale è facilitare lo sviluppo di tecnologie socialmente ‘accettabili’, e le questioni etiche hanno a che fare non solo con hardware e software, ma anche con i dati, Intelligenza artificiale, programmi e programmatori, con chi utilizza tutto ciò e con le loro azioni, il loro impatto sulla vita dell’uomo, sulla salute, sull’ambiente e su molti altri fattori.

L’innovazione offre nuove opportunità per migliorare la vita individuale e il benessere sociale, ma pone anche rischi seri che possono minacciare i diritti individuali e lo sviluppo di società pluraliste, aperte e democratiche”, rimarca Mariarosaria Taddeo, filosofa dell’Università di Oxford e dell’Alan Turing Institute di Londra.

Che sottolinea: “l’etica del digitale è l’area di ricerca e l’attività che ci permette di massimizzare le opportunità e mitigare i rischi del digitale”. Non solo: “le analisi etiche dei rischi e dei benefici collegati all’innovazione digitale, come l’Intelligenza artificiale, sono necessarie e devono essere incluse in tutto il processo di progettazione, collaudo, implementazione e utilizzo di queste tecnologie”.

Tenendo presente, fa notare la docente italiana a Oxford che si occupa del rapporto tra società e innovazione, che “le analisi etiche saranno tanto più corrette ed efficaci quanto più potranno avvalersi di competenze sia tecniche sia filosofiche”.

I tre pilastri dell’etica Digitale

Etica digitale: dati, informazioni, istruzioni

L’etica dei dati ha a che fare con la Privacy, l’identità digitale, con la fiducia e la trasparenza nel loro utilizzo. Per gli algoritmi di Machine learning, ad esempio, che imparano dai dati, è fondamentale la qualità dei dati, e lo sarà ancora di più in futuro.

“Bisogna anche tenere presente che i dati degli algoritmi riflettono solo ciò che può essere misurato, quantificato, tracciato. Mentre ciò che non può essere misurato non viene considerato, non risulta, in pratica è come se non ci fosse”, rileva Nowotny. Che ammonisce: “gli algoritmi non sono perfetti, e hanno un impatto enorme sulla società, potranno avere sviluppi sociali enormi, in tema di sicurezza, Privacy, salute, giustizia, politica, mercati, Shopping, e molto altro ancora”.

Big Data e medicina di precisione

Per fare un esempio pratico tra i tanti possibili, la medicina di precisione ha come scopo la personalizzazione delle cure sulla base delle caratteristiche genetiche dei pazienti, degli stili di vita, delle caratteristiche ambientali. Ci si aspetta di fare grandi passi avanti in questo campo, con effetti positivi sui pazienti. Ma le potenziali ricadute negative non mancano, e riguardano per lo più la sfera etica e sociale.

“Si ritiene di poter presto prevedere le malattie future delle persone. Ma la previsione di una patologia può essere usata non solo per curare preventivamente un individuo, ma anche per discriminarlo: ad esempio quando si candida per una posizione di lavoro, nell’accesso a una polizza assicurativa o, in generale, come cittadino che chiede un servizio allo Stato”, rileva Piercesare Secchi, specialista del Center for Analysis Decisions and Society, polo di ricerca di Human Technopole nato in collaborazione con il Politecnico di Milano.

Perciò queste tecnologie sollevano un importante problema di Privacy: va stabilito il diritto alla Privacy dell’individuo, quando i dati che lo riguardano servono per sviluppare nuove tecnologie diagnostiche a beneficio di tutti, ma possono anche essere utilizzati per ostacolare i suoi progetti, e quindi per danneggiarlo.

L’etica degli algoritmi e dell’Intelligenza artificiale

Il capitolo che riguarda l’etica degli algoritmi e dell’Intelligenza artificiale (AI) è quantomai ampio, ancora tutto da definire e controverso. L’Artificial intelligence, nelle sue varie forme, sta diventando un ‘mediatore’ Hi-tech sempre più diffuso e invisibile per le nostre scelte, decisioni e attività.

Uno dei principali nodi da sciogliere, nel rapporto tra Uomo e Intelligenza artificiale, riguarda ad esempio la sempre maggiore sostituzione dell’attività umana con l’AI. E quindi anche la ‘rimozione’ della responsabilità umana, che passa in misura sempre più consistente sul lato Macchina. O anche la necessità di determinare il livello di fiducia con cui delegare alla Macchina certe operazioni, e, per contro, il livello di controllo da mantenere tra le mani per verificare come sta funzionando questa intelligenza ‘programmata’. Sono tutti aspetti, regole, prospettive che l’essere umano deve prima definire bene prima di trasferirli a Intelligenza artificiale, macchine, robot e algoritmi.

Anche l’apprendimento automatico ha i suoi limiti

La nostra società fa sempre più affidamento su algoritmi in tanti aspetti della vita quotidiana. I non esperti d’informatica possono pensare: “un algoritmo è una procedura automatica, quindi non può essere di parte”. Ma non è così, perché gli algoritmi sono scritti da esseri umani. Il rischio è che razzismo, sessismo, altre forme di discriminazione e di comportamento ben poco etico vengano incorporate negli algoritmi di apprendimento automatico.

Qualche anno fa, per esempio, si è scoperto che il software di un certo tipo di webcam aveva difficoltà a riconoscere le persone con la pelle di colore più scuro. Gli algoritmi avevano imparato da un insieme di immagini (scelte dagli ingegneri), e il sistema ha costruito un modello del mondo basato su quelle immagini. Se un sistema è addestrato su foto di persone che sono prevalentemente di pelle bianca, non sarà poi in grado di riconoscere correttamente volti di altre etnie.

Per fare un altro esempio concreto, il Pricing dinamico include tutte le strategie di vendita che variano nel tempo il prezzo di prodotti e servizi. È uno strumento tradizionale: le camere degli alberghi hanno sempre avuto costi che dipendono dalla stagione. L’interesse per il Pricing dinamico è però cresciuto con gli strumenti di commercio elettronico (si pensi alle compagnie aree Low-cost), perché il prezzo può essere modificato molto più facilmente, anche più volte al giorno. Il Pricing dinamico serviva originariamente a sfruttare il fatto che in certi momenti alcuni utenti sono disposti a spendere maggiormente per avere un prodotto o servizio.

“Ultimamente viene però usato anche per apprendere dal comportamento degli utenti. Sfruttando una frequenza elevata di acquisti, un algoritmo può modificare il prezzo dopo la visita di ogni utente. L’obiettivo è capire quanti utenti acquisterebbero un bene per ogni possibile prezzo e profilare gli utenti per migliorare le strategie di differenziazione dei prezzi”, spiega Nicola Gatti, ingegnere del Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano.

Ma se non viene governato, l’algoritmo può produrre effetti distorti. Come quando, poco dopo l’attentato terroristico al London Bridge di Londra nel 2017, le tariffe delle auto a noleggio e di Car-sharing disponibili in zona sono improvvisamente raddoppiate in maniera automatica, per il picco improvviso di domanda, e sono rimaste alte finché il gestore del servizio non è dovuto intervenire sospendendo la funzionalità dell’algoritmo.

In tema di etica per l’AI, a livello europeo la Commissione Ue, lo scorso dicembre, ha reso nota la prima bozza delle ‘Ethic Guidelines for a Trustworthy AI‘, le nuove linee guida del codice etico per l’Intelligenza artificiale, che dovrebbero essere adottate ufficialmente a breve, in modo da rappresentare un primo punto di riferimento, in Europa, per decisioni, politiche, norme che saranno d’impatto sull’Artificial Intelligence.

L’etica delle persone

C’è poi la questione dell’etica professionale, per tutti coloro che avranno a che fare, a vario titolo, con queste tecnologie e queste prospettive. I tecnologi, ad esempio, contribuiranno a determinare il tipo di mondo in cui si vivrà domani. Per questo è importante, già da oggi, formare degli specialisti consapevoli e responsabili, e coltivare il pensiero critico, oltre a quello matematico, perché scelte, decisioni, azioni potranno avere implicazioni dirette sulla vita delle persone. Anche qui, casi ed effetti pratici possono essere svariati, in molti ambiti diversi.

Lo Sviluppo sostenibile, ad esempio, ha l’obiettivo di rispondere alle necessità del presente senza compromettere la capacità delle generazioni future di soddisfare le proprie. Non dovrebbero dunque esistere ricerca e sviluppo che non considerino la sostenibilità come obiettivo irrinunciabile.

Pensiero critico e convergenze globali

Nel campo del Digitale, Big Data e Intelligenza artificiale, sono innanzitutto ricercatori, programmatori e sviluppatori a dover tenere presenti e rispettare le linee etiche che poi trasferiscono alle Macchine e alle tecnologie. “Proprio perché l’etica del Digitale è sfaccettata, articolata in ambiti diversi, e procede su più fronti, a volte paralleli, spesso intrecciati tra loro, per affrontare e risolvere queste questioni e queste sfide occorre avere un approccio olistico, che comprenda tutti questi elementi, dando risposte valide a ogni aspetto particolare e al quadro generale”, auspica Taddeo.

Ma come fare a livello globale? Come trovare la quadra in un mondo Digitale che segue regole diverse, fatte da Paesi e governi diversi, ma ha effetti ovunque e oltre i confini nazionali? In questo scenario, la parola d’ordine è ‘convergenza‘. Sarà fondamentale trovare, stabilire e applicare delle linee guida, delle regole comuni, delle convergenze sull’etica Digitale, a livello internazionale, un livello il più ampio possibile.

Valuta la qualità di questo articolo

C
Stefano Casini

Giornalista specializzato nei settori dell'Economia, delle imprese, delle tecnologie e dell'innovazione. Dopo il master all'IFG, l'Istituto per la Formazione al Giornalismo di Milano, in oltre 20 anni di attività, nell'ambito del giornalismo e della Comunicazione, ha lavorato per Panorama Economy, Il Mondo, Italia Oggi, TgCom24, Gruppo Mediolanum, Università Iulm. Attualmente collabora con Innovation Post, Corriere Innovazione, Libero, Giornale di Brescia, La Provincia di Como, casa editrice Tecniche Nuove. Contatti: stefano.stefanocasini@gmail.com

email Seguimi su

Articoli correlati

Articolo 1 di 4