intelligenza artificiale

Raggiunto l’accordo sul regolamento europeo per l’AI: il testo verso l’approvazione finale

Il Consiglio e il Parlamento europeo hanno raggiunto, dopo una trattativa difficile, un accordo sul regolamento sull’intelligenza artificiale presentato dalla Commissione nel 2021. Il testo prevede norme per i sistemi ad alto rischio, divieti su determinati utilizzi dell’AI e l’istituzione di un Ufficio AI per la supervisione e il coordinamento a livello europeo. Introdotte anche le norme per regolamentare i modelli di AI general-purpose e i foundation model.

Pubblicato il 09 Dic 2023

IntelligenzaArtificiale

Il Consiglio e il Parlamento europeo hanno trovato un accordo sul testo del regolamento sull’intelligenza artificiale, che renderebbe l’Unione Europea il primo attore politico al mondo ad aver introdotto una simile regolamentazione. L’accordo è giunto a termine di una “maratona” di tre giorni che ha visto confrontarsi i negoziatori delle istituzioni e segna gli ultimi passaggi di un iter legislativo lungo e complesso, iniziato con la proposta di regolamento presentata dalla Commissione oltre due anni fa.

Un testo che ha visto i legislatori impegnati a trovare un compromesso tra l’esigenza di tutelare i diritti dei cittadini europei e il bisogno di incentivare gli investimenti su quella che la Commissione stessa ha individuato essere una delle tecnologie strategiche alla resilienza dell’economia dell’UE.

L’idea principale è quella di regolamentare l’AI in base alla capacità di quest’ultima di causare danni alla società, seguendo un approccio “basato sul rischio”: più alto è il rischio, più severe sono le regole.

Applicazioni tra due anni

Dopo l’accordo provvisorio, nelle prossime settimane si continuerà a lavorare a livello tecnico per finalizzare i dettagli del nuovo regolamento. Una volta conclusi i lavori, la presidenza sottoporrà il testo di compromesso all’approvazione dei rappresentanti degli Stati membri (Coreper).

L’intero testo dovrà essere confermato da entrambe le istituzioni e sottoposto a revisione giuridico-linguistica prima dell’adozione formale da parte dei colegislatori.

L’accordo provvisorio prevede che l’atto di AI si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

Le novità rispetto al testo iniziale

Rispetto alla proposta iniziale della Commissione, il testo introduce:

  • norme sui modelli di AI general purpose ad alto impatto che possono causare rischi sistemici in futuro, nonché sui sistemi di AI ad alto rischio
  • un sistema di governance rivisto con alcuni poteri di applicazione a livello dell’UE
  • l’estensione dell’elenco dei divieti, ma con la possibilità di utilizzare l’identificazione biometrica a distanza da parte delle autorità di polizia negli spazi pubblici, a condizione che siano previste delle salvaguardie
  • una migliore protezione dei diritti attraverso l’obbligo per chi impiega sistemi di AI ad alto rischio di condurre una valutazione d’impatto sui diritti fondamentali prima di mettere in uso un sistema di AI

Nello specifico, sono diverse le aree del testo che si sono attenzionate nel corso dei negoziati, a partire dagli stessi ambiti di applicazione della disciplina: per garantire che la definizione di sistema di AI fornisca criteri sufficientemente chiari per distinguere l’AI da sistemi software più semplici, l’accordo di compromesso allinea la definizione all’approccio proposto dall’OCSE.

L’accordo provvisorio chiarisce inoltre che il regolamento non si applica ad aree al di fuori del campo di applicazione del diritto dell’UE e non dovrebbe, in ogni caso, influire sulle competenze degli Stati membri in materia di sicurezza nazionale o su qualsiasi entità a cui siano affidati compiti in questo settore.

Inoltre, il regolamento non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Allo stesso modo, l’accordo prevede che il regolamento non si applichi ai sistemi di AI utilizzati al solo scopo di ricerca e innovazione, né a coloro che utilizzano l’AI per motivi non professionali.

Classificazione dei sistemi di AI come ad alto rischio e pratiche di AI vietate

L’accordo di compromesso prevede un livello orizzontale di protezione, compresa una classificazione ad alto rischio, per garantire che i sistemi di AI che non possono causare gravi violazioni dei diritti fondamentali o altri rischi significativi non vengano limitati. I sistemi di AI che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, ad esempio la divulgazione del fatto che il contenuto è stato generato dall’AI in modo che gli utenti possano prendere decisioni informate sull’ulteriore utilizzo.

Un’ampia gamma di sistemi di AI ad alto rischio sarebbe autorizzata, ma soggetta a una serie di requisiti e obblighi per accedere al mercato dell’UE. Tali requisiti sono stati chiariti e adattati dai colegislatori in modo da renderli tecnicamente più fattibili e meno onerosi da rispettare per le parti interessate, ad esempio per quanto riguarda la qualità dei dati o in relazione alla documentazione tecnica che le PMI dovrebbero redigere per dimostrare che i loro sistemi di AI ad alto rischio sono conformi ai requisiti.

Poiché i sistemi di AI sono sviluppati e distribuiti attraverso complesse catene del valore, l’accordo di compromesso include modifiche che chiariscono l’attribuzione delle responsabilità e dei ruoli dei vari attori di tali catene, in particolare dei fornitori e degli utenti di sistemi di AI.

Chiarisce inoltre il rapporto tra le responsabilità previste dalla legge sull’AI e quelle già previste da altre legislazioni, come la legislazione UE sulla protezione dei dati o quella settoriale.

Per alcuni usi dell’AI, il rischio è considerato inaccettabile e, pertanto, questi sistemi saranno vietati dall’UE. L’accordo provvisorio vieta, ad esempio, la manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, il social scoring, la categorizzazione biometrica per dedurre dati sensibili, come l’orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per gli individui.

Le deroghe per il contrasto al crimine

Considerando le specificità delle autorità preposte all’applicazione della legge e la necessità di preservare la loro capacità di utilizzare l’AI nel loro lavoro vitale, sono state concordate diverse modifiche alla proposta della Commissione relative all’uso dei sistemi di AI a fini di applicazione della legge.

Fatte salve le opportune salvaguardie, queste modifiche intendono riflettere la necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività. Ad esempio, è stata introdotta una procedura di emergenza che consente alle forze dell’ordine di utilizzare uno strumento di AI ad alto rischio che non ha superato la procedura di valutazione della conformità in caso di urgenza. Tuttavia, è stato introdotto anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente protetti da eventuali abusi dei sistemi di AI.

Inoltre, per quanto riguarda l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico, l’accordo provvisorio chiarisce gli obiettivi per i quali tale uso è strettamente necessario ai fini dell’applicazione della legge e per i quali le autorità preposte all’applicazione della legge dovrebbero quindi essere eccezionalmente autorizzate a utilizzare tali sistemi.

L’accordo di compromesso prevede ulteriori garanzie e limita queste eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, attuali o prevedibili, come gli attacchi terroristici, e alle ricerche di persone sospettate dei reati più gravi.

Sistemi di AI di uso generale e modelli di fondazione

In fase di negoziato, inoltre, state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di AI possono essere utilizzati per molti scopi diversi (AI per scopi generali) e in cui la tecnologia di AI per scopi generali viene successivamente integrata in un altro sistema ad alto rischio. L’accordo provvisorio affronta anche i casi specifici dei sistemi di AI per scopi generali (GPAI).

Sono state concordate regole specifiche anche per i modelli di base, sistemi di grandi dimensioni in grado di svolgere con competenza un’ampia gamma di compiti distintivi, come la generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico.

L’accordo provvisorio prevede che i modelli di fondazione debbano soddisfare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più severo per i modelli di fondazione “ad alto impatto”, ossia quei modelli di fondazione addestrati con una grande quantità di dati e con complessità, capacità e prestazioni avanzate, ben al di sopra della media, che possono diffondere rischi sistemici lungo la catena del valore.

Una nuova architettura di governance

A seguito delle nuove regole sui modelli di AI e dell’ovvia necessità di farle rispettare a livello europeo, viene istituito un Ufficio AI all’interno della Commissione con il compito di supervisionare questi modelli di AI più avanzati, contribuire alla promozione di standard e pratiche di test e far rispettare le regole comuni in tutti gli Stati membri.

Un gruppo scientifico di esperti indipendenti fornirà consulenza all’Ufficio AI sui modelli di AI, contribuendo allo sviluppo di metodologie per la valutazione delle capacità dei modelli di fondazione, fornendo consulenza sulla designazione e sull’emergere di modelli di fondazione ad alto impatto e monitorando i possibili rischi per la sicurezza materiale legati ai modelli di fondazione.

Il Comitato di AI, che comprenderà i rappresentanti degli Stati membri, rimarrà una piattaforma di coordinamento e un organo consultivo della Commissione e darà un ruolo importante agli Stati membri nell’attuazione del regolamento, compresa la progettazione di codici di pratica per i modelli di fondazione.

Infine, sarà istituito un forum consultivo per le parti interessate, come i rappresentanti dell’industria, delle PMI, delle start-up, della società civile e del mondo accademico, che fornirà competenze tecniche al Comitato per l’AI.

Le sanzioni

Le ammende per le violazioni della legge sull’AI sono state fissate come una percentuale del fatturato annuo globale dell’azienda colpevole nell’esercizio finanziario precedente o di un importo predeterminato, a seconda di quale sia il più alto. Nello specifico, le ammende previste ammontano a:

  • 35 milioni di euro o del 7% per le violazioni delle applicazioni AI vietate
  • 15 milioni di euro o del 3% per le violazioni degli obblighi della legge sull’AI
  • 7,5 milioni di euro o dell’1,5% per la fornitura di informazioni non corrette

Tuttavia, l’accordo provvisorio prevede massimali più proporzionati per le ammende amministrative per le PMI e le start-up in caso di violazione delle disposizioni della legge.

Il testo chiarisce inoltre che una persona fisica o giuridica può presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge sull’AI e può aspettarsi che tale reclamo venga gestito in linea con le procedure dedicate di tale autorità.

Trasparenza e tutela dei diritti fondamentali

L’accordo provvisorio prevede una valutazione dell’impatto sui diritti fondamentali prima che un sistema di AI ad alto rischio venga immesso sul mercato da chi lo utilizza.

Inoltre, è prevista una maggiore trasparenza sull’uso dei sistemi di AI ad alto rischio. In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che anche alcuni utenti di un sistema di AI ad alto rischio che sono enti pubblici saranno obbligati a registrarsi nella banca dati dell’UE per i sistemi di AI ad alto rischio.

Le nuove disposizioni aggiunte pongono l’accento anche sull’obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando sono esposte a tale sistema.

Misure a sostegno dell’innovazione

Al fine di creare un quadro giuridico più favorevole all’innovazione e di promuovere un apprendimento normativo basato su dati concreti, le disposizioni relative alle misure a sostegno dell’innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione.

In particolare, è stato chiarito che le sandbox di regolamentazione dell’AI, che dovrebbero creare un ambiente controllato per lo sviluppo, la sperimentazione e la convalida di sistemi innovativi di intelligenza artificiale, dovrebbero anche consentire la sperimentazione di sistemi innovativi di AI in condizioni reali.

Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di AI in condizioni reali, nel rispetto di specifiche condizioni e salvaguardie. Per alleggerire l’onere amministrativo delle imprese più piccole, l’accordo provvisorio comprende un elenco di azioni da intraprendere per sostenere tali operatori e prevede alcune deroghe limitate e chiaramente specificate.

Valuta la qualità di questo articolo

C
Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

email Seguimi su

Articoli correlati

Articolo 1 di 5