Intelligenza artificiale, l’OCSE spiega come va sviluppata e usata

Secondo l’OCSE l’Artificial intelligence deve puntare a crescita inclusiva, sviluppo sostenibile, benessere diffuso; deve essere progettata e realizzata in modo da rispettare i diritti umani e i valori democratici; deve funzionare in modo trasparente e sicuro. Coerentemente con questi principi, basati su valori condivisi anche con l’Unione Europea, l’OCSE fornisce anche delle raccomandazioni ai governi dei vari Paesi.

Pubblicato il 22 Mag 2019

evento AI generativa Competence Center Made 4.0 e Avvale

Un concentrato di buoni propositi, auspici e linee guida, per usare, da qui in avanti, l’Intelligenza artificiale e tutte le sue enormi potenzialità nel modo più virtuoso, positivo e benefico per tutti: l’Artificial intelligence deve puntare a crescita inclusiva, sviluppo sostenibile, benessere diffuso; deve essere progettata e realizzata in modo da rispettare i diritti umani e i valori democratici; deve funzionare in modo trasparente e sicuro.

Quarantadue Paesi oggi hanno sottoscritto e adottato i nuovi principi dell’OCSE, l’Organizzazione internazionale per la cooperazione e lo sviluppo economico, sull’Intelligenza artificiale. In questo modo, “hanno formalmente adottato la prima serie di linee guida politiche intergovernative sull’Intelligenza artificiale, accettando di mantenere gli standard internazionali che puntano a garantire che i sistemi di IA siano progettati e realizzati per essere robusti, sicuri, equi e affidabili”, sottolinea Anne Carblanc, responsabile del settore Digital Economy Policy dell’OCSE: sono linee guida che “promuovono un’Intelligenza artificiale innovativa e affidabile, che rispetta i diritti umani e i valori democratici”.

I 36 membri dell’OCSE, tra cui l’Italia, insieme a 6 Paesi esterni all’organizzazione (Argentina, Brasile, Colombia, Costa Rica, Perù e Romania), hanno sottoscritto i principi dell’OCSE sull’Intelligenza artificiale in occasione della riunione annuale del Consiglio ministeriale dell’Organizzazione.

Elaborati sotto la guida di un gruppo di esperti formato da più di 50 membri provenienti da governi, mondo accademico, mondo imprenditoriale, società civile, organismi internazionali, comunità tecnologica e sindacati, i ‘Principi’ comprendono cinque regole basate su valori per lo sviluppo responsabile di un’IA affidabile, e cinque raccomandazioni per le politiche pubbliche e la cooperazione internazionale.

In pratica, hanno lo scopo di guidare i governi, le organizzazioni e gli individui nella progettazione e gestione dei sistemi di IA, in un modo che metta al primo posto gli interessi delle persone, e che garantisca che i progettisti e gli operatori dei sistemi di IA siano ritenuti responsabili del loro corretto funzionamento.

“L’Intelligenza artificiale sta rivoluzionando il nostro modo di vivere e lavorare, offrendo benefici straordinari per le nostre società e le nostre economie. Ma solleva anche nuove sfide e sta alimentando ansie e preoccupazioni etiche. Questo impone ai governi l’onere di garantire che i sistemi di IA siano progettati in modo da rispettare i nostri valori e le nostre leggi, in modo che le persone possano confidare nel fatto che la loro sicurezza e la loro Privacy saranno fondamentali”, spiega il segretario generale dell’OCSE, Angel Gurría. Che osserva: “questi Principi saranno un punto di riferimento globale per un’IA affidabile, in modo da poterne sfruttare le opportunità in modo da ottenere i migliori risultati per tutti”.

I 5 principi per l’Intelligenza artificiale

Ecco nel dettaglio, e in sintesi, cosa indicano e cosa prevedono i 5 principi definiti dall’Ocse per un’Artificial intelligence benefica, sicura e affidabile:

1. L’Intelligenza artificiale deve portare beneficio a favore delle persone e del pianeta, stimolando la crescita inclusiva, lo sviluppo sostenibile e il benessere.

2. I sistemi di IA vanno progettati in modo da rispettare lo stato di diritto, i diritti umani, i valori democratici e la diversità. E dovrebbero includere salvaguardie appropriate per garantire una società giusta ed equa, ad esempio consentendo, se necessario, l’intervento umano.

3. Ci dovrebbe essere trasparenza e divulgazione responsabile intorno ai sistemi di Intelligenza artificiale, per garantire che le persone comprendano tutto ciò che è collegato al loro utilizzo e possano sfruttare al meglio i loro risultati.

4. I sistemi di IA devono funzionare in modo solido e sicuro, per tutta la durata delle loro applicazioni, e i potenziali rischi vanno continuamente valutati e gestiti.

5. Le organizzazioni e gli individui che sviluppano, utilizzano o gestiscono sistemi di IA dovrebbero essere ritenuti responsabili del loro corretto funzionamento, in linea con questi principi e linee guida.

Si tratta di norme che sono abbastanza pratiche e flessibili da resistere alla prova del tempo, in un settore in rapida evoluzione. “Questi principi dell’IA hanno il sostegno della Commissione europea, il cui gruppo di esperti di alto livello ha già prodotto di recente linee guida etiche per un’IA affidabile, e faranno parte della discussione al prossimo vertice dei leader del G20 in Giappone”, rimarca Andrew Wyckoff, direttore dell’area Tecnologia e innovazione dell’OCSE. Gli esperti di politica digitale dell’OCSE si baseranno su questi principi nei prossimi mesi per produrre orientamenti pratici per la loro attuazione.

Le cinque sfide etiche dell’Intelligenza artificiale

Pur non essendo giuridicamente vincolanti, i principi OCSE già esistenti in altri settori si sono dimostrati influenti nella definizione di norme internazionali e nell’aiutare i governi ad elaborare la legislazione nazionale. Ad esempio, le linee guida dell’OCSE sulla Privacy, che fissano limiti alla raccolta e all’uso dei dati personali, sono alla base di molte leggi e quadri normativi sulla Privacy negli Stati Uniti, in Europa e in Asia.

I principi di governo societario dell’OCSE, approvati dal G20, sono diventati un punto di riferimento internazionale per politici, investitori, imprese e altre realtà che lavorano sui quadri istituzionali e normativi in materia di governo societario.

Le 5 raccomandazioni dell’Ocse ai governi

Coerentemente con questi principi, basati su valori condivisi, l’OCSE fornisce anche cinque raccomandazioni ai governi dei vari Paesi:

1. Facilitare gli investimenti pubblici e privati nella ricerca e sviluppo per stimolare l’innovazione in un’IA affidabile.

2, Promuovere ecosistemi di Intelligenza artificiale accessibili, con infrastrutture e tecnologie digitali e meccanismi per la condivisione di dati e conoscenze.

3, Creare un ambiente politico che apra la strada alla diffusione di sistemi di IA affidabili.

4. Dotare le persone delle competenze per l’IA e sostenere i lavoratori per garantire un’equa transizione delle conoscenze.

5. Collaborare a livello internazionale e intersettoriale per condividere informazioni, sviluppare norme e lavorare per una gestione responsabile dell’Intelligenza artificiale.

Fin qui, le linee guida e le regole a cui tutti, dai governi nazionali agli sviluppatori di sistemi Hi-tech, dovrebbero attenersi d’ora in poi nel mettere mano a questi temi e strumenti. I prossimi passi dell’OCSE e dei suoi rappresentanti, poi, consisteranno in attività per controllare e misurare la ricerca, lo sviluppo e la diffusione dell‘Intelligenza artificiale, e per raccogliere le informazioni di base per valutare i progressi compiuti nella sua attuazione.

L’Osservatorio delle politiche in materia di IA dell’OCSE faciliterà questo compito, fornendo verifiche e orientamenti sulle politiche e le pratiche in materia di IA, per contribuire all’attuazione dei Principi, e costituirà un centro per facilitare il dialogo e condividere le migliori pratiche sulle politiche in materia di IA.

Valuta la qualità di questo articolo

C
Stefano Casini

Giornalista specializzato nei settori dell'Economia, delle imprese, delle tecnologie e dell'innovazione. Dopo il master all'IFG, l'Istituto per la Formazione al Giornalismo di Milano, in oltre 20 anni di attività, nell'ambito del giornalismo e della Comunicazione, ha lavorato per Panorama Economy, Il Mondo, Italia Oggi, TgCom24, Gruppo Mediolanum, Università Iulm. Attualmente collabora con Innovation Post, Corriere Innovazione, Libero, Giornale di Brescia, La Provincia di Como, casa editrice Tecniche Nuove. Contatti: stefano.stefanocasini@gmail.com

email Seguimi su

Articoli correlati

Articolo 1 di 4