Il machine learning cambierà la sanità. Siamo pronti?

Il settore è in crescita, ma ci sono ancora interrogativi legali. Senza AI però, i medici potrebbero fare fatica a tenere il passo delle innovazioni

Pubblicato il 18 Lug 2017

Un robot dottore

La sanità è destinata a cambiare. E sistemi di intelligenza artificiale, di machine learning e di robotica saranno sempre più comuni in ospedali, ambulatori e case di cura. Ibm ha calcolato che, per tenersi aggiornato, un epidemiologo dovrebbe studiare 167 ore a settimana. Se dividiamo il monte ore per sette giorni, il risultato è di 23,8 ore al giorno. Studiare, studiare, studiare insomma, senza fare altro. Nemmeno dormire. Per questo sistemi di intelligenza artificiale (AI) saranno sempre più decisivi nella gestione dei sistemi sanitari nazionali. Ibm, ad esempio, ha investito 4 miliardi di dollari nel suo Watson Health, il cervellone applicato alla salute. Tuttavia al momento sono molti gli interrogativi legati a queste tecnologie.

Gianluigi Marino dello studio legale DLA Piper

Come si decide?

Oggi i sistemi di machine learning ricordano, osserva Gianluigi Marino dello studio legale DLA Piper, che ha dedicato uno specifico approfondimento al segmento sanitario, “una mistery box. Si sa da dove si parte ma non si sa dove si finisce”. E capire come si prendono le decisioni è importante quando c’è di mezzo la salute, se non persino la vita di una persona.

“La tendenza – prosegue il legale – è di non voler sostituire il medico, ma non si può escludere che questo progresso faccia sì che alcune decisioni con impatto sulla salute possano essere frutto della decisone automatizzata di una macchina”. Il nuovo regolamento europeo sulla privacy (GDPR) prevede che l’interessato abbia il diritto fondamentale di chiedere la revisione di una decisione presa in automatico da una macchina e di ottenere una spiegazione dettagliata su come questa decisione sia stata presa. E se non si riesce a rispondere, come si fa? Il diritto prevalente alla salute può essere più forte del diritto di conoscere i processi decisionali di una macchina? Gli esperti di diritto sono al lavoro su questi punti di domanda.

Cosa cambia in Europa

Un sistema per il machine learning può essere considerato un dispositivo medico, se viene applicato alle cure di una persona? Già oggi lo è, perché anche i software rientrano nella descrizione dei “dispositivi medici” dell’Europa, come stabilito dalla direttiva 42 del 1993, la stessa che impone il marchio CE su questi prodotti.

Sara Balice, dello studio legale DLA Piper

Tra tre anni, però, diventerà efficace il nuovo regolamento europeo, il 745 del 2017, che “richiede maggiori indagini cliniche, più responsabilità degli attori della catena di distribuzione e assegna nuovi criteri di classificazione dei software”, spiega Sara Balice, dello studio legale DLA Piper.

I sistemi di machine learning avranno la capacità di analizzare ingenti moli di dati sanitari, ma potranno anche isolare i sintomi riconducibili ad alcune patologie, setacciare la letteratura scientifica per individuare le potenziali soluzioni e sottoporre questo dossier al medico. L’uso e le potenzialità, quindi, ne influenzano la classificazione.

I robot non sono tutti uguali

“Se il software adopera dati per la diagnosi e la diagnosi ha un impatto grave sul paziente, il software dovrà essere classificato nelle classi superiori e non in quella più bassa, che in genere è quella più comune per i software”, aggiunge Balice. “I vantaggi di queste tecnologie sono evidenti – osserva il legale – ma i profili legali sono un’area grigia”.

È il caso dei care robot, ossia quei robot che svolgono assistenza ai malati, ad esempio nel trasporto di pazienti o persone fragili. Non rientrerebbero nella definizione classica di “dispositivo medico”, perché non hanno compiti strettamente sanitari. In questo caso entrerebbe in campo il codice del consumo e il produttore sarebbe chiamato a rispondere della sicurezza o dei difetti del dispositivo.

Imparare è lecito

Secondo gli esperti di DLA Piper si profila una via di fuga all’orizzonte. Dato che il machine learning si basa sull’apprendimento, l’apparecchio potrebbe avere appreso nozioni utili al suo corretto funzionamento in un momento successivo a quello in cui il prodotto viene messo in circolazione. “Non c’è responsabilità del produttore se lo stato di conoscenze scientifiche e tecniche, quando il prodotto è stato immesso in circolazione, non permetteva di considerare il prodotto come difettoso. Ci si aspetta che questa sia una delle maggiori difese che i produttori sosteranno”, sostengono da DLA.

Valuta la qualità di questo articolo

Z
Luca Zorloni

Cronaca ed economia mi sono sembrate per anni mondi distanti dal mio futuro. E poi mi sono ritrovato cronista economico. Prima i fatti, poi le opinioni. Collaboro con Il Giorno e Wired e, da qualche mese, con Innovation Post.

email Seguimi su

Articoli correlati

Articolo 1 di 2