Investimenti, diritti dei lavoratori e privacy: che cosa preoccupa del regolamento europeo sull’AI (e che cosa stabilisce il testo)

Nei giorni in cui Parlamento europeo e il Consiglio tornano a confrontarsi sulla proposta di regolamento per l’AI presentata dalla Commissione europea, Roberto Viola, Direttore del Dg Connect della Commissione Europea, affronta le principali questioni e criticità che si sono sollevate dalla presentazione del regolamento: dalle risorse messe sull’AI alle tutele che il regolamento fornisce contro la discriminazione sul luogo di lavoro, fino agli strumenti a protezione dei diritti dei cittadini nell’utilizzo, da parte dei Stati membri, di sistemi di riconoscimento biometrico basati sull’AI.

Pubblicato il 31 Gen 2022

intelligenza-artificiale

La proposta per un regolamento europeo sull’Intelligenza Artificiale (AI), presentata dalla Commissione europea lo scorso 21 aprile 2021, è stata accolta con molto favore e qualche critica.

Il testo, il primo del suo genere, si propone di regolamentare i sistemi di AI commercializzati all’interno del mercato europeo, inclusi quindi quelli prodotti all’esterno dell’Ue.

Il sistema che verrebbe introdotto con il regolamento (di cui abbiamo parlato approfonditamente in questo articolo), si basa su una classificazione dei sistemi di AI rispetto al rischio che essi possono rappresentare per la salute, la sicurezza o a altri diritti fondamentali di cui godono i cittadini dell’Unione.

Alcuni sistemi, proprio perché hanno il potenziale di impattare pesantemente su questi diritti, come nel caso degli algoritmi di AI utilizzati per elaborare un “punteggio sociale”, vengono vietati all’interno dell’Unione. Per gli altri, invece, vengono previsti standard, limitazioni e obblighi, sulla base del rischio stimato.

Si va così dai sistemi che comportano un “rischio minimo” – come nel caso dei filtri anti-spam o dei videogiochi abilitati dall’AI – a cui il regolamento non verrà applicato, ai sistemi “a basso rischio” – cioè tutti quei sistemi di AI che richiedono specifici obblighi di trasparenza, come i chatbot – e che devono dunque aderire a determinati obblighi e standard, fino ai sistemi giudicati “ad alto rischio”.

In quest’ultima categoria rientrano tutti i sistemi di identificazione biometrica a distanza, il cui utilizzo dal vivo in spazi pubblicamente accessibili per scopi di applicazione della legge è vietato, in linea di principio. Sistemi che quindi dovranno rispettare obblighi e standard molti stringenti.

Proprio questi obblighi sono stati più volte messi al centro delle critiche rivolte al regolamento, sia per l’ampiezza dei sistemi inclusi nella classificazione europea – che la Commissione ha reso volutamente ampia, anche per rendere il testo “a prova di futuro” – sia per il rischio che standard e obblighi così stringenti possano costituire un freno agli investimenti privati.

Il “luogo comune” dell’Europa che non investe in hi-tech

Nel giorno in cui il testo prosegue il suo iter legislativo, con l’esame da parte del Parlamento e del Consiglio, Roberto Viola, Direttore generale di Dg Connect (Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie) presso la Commissione Ue, ha voluto rispondere alle critiche più comunemente mosse al regolamento e puntualizzare cosa effettivamente stabilisce il testo, attraverso un suo intervento sul Corriere della Sera.

Il primo nodo che ha voluto sciogliere è quello relativo agli investimenti. Tra le considerazioni che hanno seguito la pubblicazione della proposta di regolamento, infatti, vi è quella della situazione di arretratezza dell’Ue sugli investimenti in questo campo, rispetto a Paesi quali Cina e Stati Uniti. Situazione che avrebbe quindi portato l’Unione ad agire come regolatore, non potendo competere con le altre due potenze sul piano tecnologico.

“Per quanto riguarda gli investimenti in hi-tech, temo rischi di diventare un luogo comune l’adagio che l’Europa non faccia molto, mentre Usa e Cina corrono”, scrive Viola, citando gli importanti risultati ottenuti dall’Ue proprio grazie a programmi di ricerca e di sviluppo supportati, come nel caso dei vaccini mRNA.

Ma non solo: anche nel campo dell’AI, sottolinea Viola, l’Europa sta portando avanti progetti ambiziosi, con “investimenti senza precedenti”, come nel caso del supercalcolo – con Leonardo e Lumi, i due supercomputer più veloci al mondo perle applicazioni dell’Intelligenza Artificiale, che diventeranno operativi il prossimo anno – e del PNRR, che proprio per l’AI stanzia ingenti somme.

Somme a cui si aggiungeranno i circa 20 miliardi di euro di investimenti pubblici e privati che gli Stati membri e l’Ue hanno concordato di investire, ogni anno, proprio sull’Intelligenza Artificiale.

La tutela dei lavoratori

Il secondo nodo riguarda la tutela dei lavoratori rispetto alle possibili discriminazioni derivanti dall’utilizzo di algoritmi di AI sul luogo di lavoro. Sul tema è intervenuto anche più volte l’Ocse, sottolineando come l’utilizzo di algoritmi di introduce un forte rischio di discriminazione dei lavoratori nel caso che questi algoritmi vengano utilizzati senza la supervisione umana.

È il caso, ad esempio, degli algoritmi utilizzati nei processi di selezione del personale, oppure per determinare la produttività (e l’eventuale licenziamento) di un lavoratore e monitorare le prestazioni giornaliere.

Inoltre, i  bias su cui si basano gli algoritmi di AI possono creare rappresentazioni errate o inesatte dei lavoratori appartenenti a categorie sociali fragili o minoritarie (come donne, minoranze etniche e disabili), rappresentando così una minaccia per i loro diritti.

“Per questo gli algoritmi nel posto di lavoro sono considerati nel regolamento Ue un’applicazione ad alto rischio e come tali regolati”, ricorda Viola.

Secondo il Direttore, questi algoritmi possono invece rappresentare uno strumento utile per contrastare le discriminazioni sul lavoro, permettendo all’azienda o a chi li utilizza di prendere scelte più oggettive. “A patto però che gli algoritmi siano verificati”, precisa.

Proprio in questa direzione si muovono le iniziative presentate dalla Commissione che, oltre al regolamento sull’AI, ha presentato anche un set di proposte volto a migliorare la tutela dei lavoratori che utilizzano piattaforme digitali, che includono:

  • una comunicazione che definisce l’approccio e le misure dell’Ue riguardanti i lavori che utilizzano piattaforme digitali. Indicazioni che dovranno essere integrate da azioni di cui dovrebbero farsi carico le autorità nazionali, le parti sociali e altri attori interessati. La comunicazione, inoltre, ha anche lo scopo di gettare le basi per i futuri standard per i lavori mediante piattaforme digitali
  • un progetto di linee guida che chiariscono l’applicazione del diritto della concorrenza dell’Ue ai contratti collettivi dei lavoratori autonomi solitari che cercano di migliorare le loro condizioni di lavoro. Questo include coloro che lavorano attraverso piattaforme digitali
  • una proposta di direttiva sul miglioramento delle condizioni di lavoro per chi usa le piattaforme digitali, che include misure per determinare correttamente lo stato di occupazione delle persone che lavorano attraverso piattaforme di lavoro digitali e nuovi diritti, sia per i lavoratori dipendenti che per i lavoratori autonomi, per quanto riguarda la gestione algoritmica

Sistemi di riconoscimento facciale, cosa dice il regolamento europeo sull’AI?

Il terzo punto che il Direttore generale di Dg Connect ha voluto toccare è quello dei sistemi di AI per il riconoscimento dei volti in tempo reale che, da un lato, possono rivelarsi strumenti utili per la prevenzione dei reati più gravi (come nel caso della lotta al terrorismo), dall’altro destano diverse preoccupazioni in materia di tutela dei diritti e rispetto della privacy.

In questo ambito delicato, a tutela del diritto dei cittadini intervengono normative già vigenti in materia di dati e tutela della privacy.

“La materia è già ampiamente regolata dal Gdpr (il regolamento sulla protezione dei dati) e dalla direttiva ‘sorella’, che si occupa delle attività di polizia, ma il regolamento sull’AI pone ulteriori paletti”, ricorda Viola.

La stessa Commissione, ricorda Viola, ha inserito questi sistemi tra quelli giudicati ad alto rischio e quindi soggetti a standard e obblighi più stringenti. Obblighi a cui gli Stati membri che sceglieranno di utilizzare questi sistemi dovranno rispettare. Il processo, inoltre, può essere oggetto di verifica sia da parte di giudici nazionali, che da parte di tribunali europei.

A tutela dei diritti dei cittadini vi è anche la forma legislativa scelta per trattare la materia: il regolamento (e non la direttiva), in quanto atto di diritto obbligatorio a tutti gli Stati membri, senza la necessità di essere prima approvato dai parlamenti nazionali.

Una decisione presa con l’obiettivo di evitare la frammentazione della disciplina e differenze nella sua applicazione tra i diversi Stati membri.

Sui temi, intanto, si continua a discutere man mano che la proposta continua il suo iter legislativo e non è escluso che dal confronto tra Parlamento e Consiglio – che devono trovare un accordo sul testo finale – possano giungere ulteriori chiarimenti.

Valuta la qualità di questo articolo

C
Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

email Seguimi su

Articoli correlati

Articolo 1 di 5