Anche la legge si (pre)occupa dell’intelligenza artificiale

Il 7 maggio 2016 negli Stati Uniti il pilota automatico di una berlina Model S di Tesla, l’azienda fondata da Elon Musk, non riconosce la fiancata bianca di un tir come ostacolo e ci si schianta contro. Nell’impatto il conducente del veicolo, un ex marine, che in quel momento aveva affidato i comandi al software, muore. A fine gennaio di quest’anno il dipartimento degli Stati Uniti ha archiviato l’inchiesta nei confronti della casa automobilistica: nessun difetto tecnico. Ma quali sono i profili giuridici dell’uso dell’intelligenza artificiale?

La responsabilità dei robot

La domanda è tutt’altro che bizantina, visto che un sempre maggiore numero di intelligenze artificiali, in aggiunta sempre più sofisticata, si affaccia nella vita di tutti i giorni. Quali sono le conseguenze legali degli atti dei robot? Chi ne risponde? “Oggi si fa riferimento alla responsabilità oggettiva di prodotto, ma è una norma redatta 35 anni fa. Quando di intelligenza artificiale non si parlava – osserva Giulio Coraggio, legale dello studio internazionale DLA Piper -. In quanto oggettiva, non bisogna dimostrare una negligenza. Se si crea un danno e io sono produttore, io sono responsabile”.

La norma, però, inquadra solo una parte del problema e identifica il prodotto con standard che, nel frattempo, hanno fatto passi da gigante. Pensiamo sempre a un’auto che si guida da sola e che si trova davanti all’improvviso un bambino che attraversa la strada. Le probabilità di sterzare per evitarlo indicano che il veicolo si ribalterà, mettendo a repentaglio la vita del conducente. Ma se prosegue per la sua strada, quella più sicura dal punto di calcolo, una vita è comunque in pericolo. “Di fronte a scelte di questo tipo bisogna dare indicazioni etiche alle intelligenze artificiali”, prosegue Coraggio.

Lavoro e privacy

Le evoluzioni della robotica tuttavia pongono questioni anche sulle frontiere dell’occupazione e della gestione dei dati personali. Se un’azienda decide di assumere un robot e di assegnargli una serie di compiti che prima svolgevano una o più persone, le quali sono licenziate, cosa succede? Il licenziamento come viene giustificato? E come gestisce l’azienda la dipendenza crescente dal fornitore esterno di tecnologia? Sono quesiti su cui gli studi legali più avvertiti iniziano a interrogarsi.

Anche la gestione dei dati da parte di un’Ai pone profili legali. “Di chi sono?”, è la prima domanda che pone Coraggio. E la seconda: come sono usati? L’esempio più consono arriva dal mondo delle assicurazioni. “Le compagnie assicurative hanno sistemi robotizzati per valutare le polizze – osserva il legale -. Ma la nuova direttiva sulla privacy prescrive che l’individuo ha il diritto di non essere giudicato da un sistema automatizzato. La persona può fare ricorso e ottenere di essere giudicata da una persona fisica. Si prospetta un costo incredibile per le assicurazioni, che per mantenere i robot devono dimostrare che l’unico modo di contrattualizzazione è un sistema di Ai. Se tutto il sistema fa affidamento sull’AI, la norma non ammette il ricorso”.

Ue al lavoro

Di fronte a questi dubbi, che ormai riguardano casi quotidiani, nei giorni scorsi i parlamentari europei hanno votato una risoluzione per chiedere alla Commissione un testo di legge su robotica e intelligenza artificiale. Nello specifico, il testo di Bruxelles dovrà pronunciarsi sulla responsabilità legata a incidenti causati da AI.


Luca Zorloni

Cronaca ed economia mi sono sembrate per anni mondi distanti dal mio futuro. E poi mi sono ritrovato cronista economico. Prima i fatti, poi le opinioni. Collaboro con Il Giorno e Wired e, da qualche mese, con Innovation Post.

luca has 68 posts and counting.See all posts by luca

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*

Pin It on Pinterest