intelligenza artificiale

Dal G7 un Codice di Condotta sull’AI per promuovere un utilizzo sicuro e responsabile dell’intelligenza artificiale

I leader dei Paesi del G7 hanno raggiunto un accordo per il primo Codice di Condotta sull’AI per promuovere un’intelligenza artificiale sicura e affidabile, fornendo linee guida per mitigare i rischi e garantire la trasparenza. Il codice si rivolge alle aziende sviluppatrici di AI e sarà volontario, rafforzando le future regole del regolamento europeo sull’IA.

Pubblicato il 30 Ott 2023

evento AI generativa Competence Center Made 4.0 e Avvale

Promuovere un’intelligenza Artificiale sicura, protetta e affidabile in tutto il mondo e aiutare così le aziende a cogliere tutti i vantaggi dell’AI e a saperne calcolare e affrontare i rischi: sono questi gli obiettivi del Codice di Condotta sull’AI concordato dai Paesi del G7.

Il codice di condotta si rivolge alle aziende che sviluppano sistemi di AI ed è il frutto del lavoro iniziato qualche mese fa con il lancio dell'”Hiroshima Artificial Intelligence Process” (Processo di Hiroshima sull’AI, iniziativa lanciata nel corso del G7 del 19 maggio 2023 per promuovere i criteri di sicurezza per i sistemi avanzati di AI a livello globale.

L’iniziativa si inserisce in una più ampia gamma di discussioni internazionali sui criteri di protezione per l’AI, anche in seno all’OCSE, al Partenariato globale sull’intelligenza artificiale (GPAI) e nel contesto del Consiglio per il commercio e la tecnologia UE-USA e dei Partenariati digitali dell’UE.

Il processo ha portato all’individuazione di alcuni Principi Guida per lo sviluppo e l’applicazione dell’AI che hanno, a loro volta, portato all’elaborazione del Codice di condotta sull’AI rivolto agli sviluppatori. Questi principi e il Codice di Condotta, a cui le aziende potranno aderire su base volontaria, rafforzeranno le regole che saranno imposte dal nuovo regolamento europeo sull’intelligenza artificiale, che non ha ancora raggiunto la fine del suo iter legislativo.

Gli 11 principi del Codice di condotta internazionale sull’AI

Gli undici principi guida adottati dai leader dei sette Paesi e dell’UE che compongono il G7 forniscono indicazioni alle organizzazioni che sviluppano, distribuiscono e utilizzano sistemi avanzati di AI – come i modelli di fondazione e l’AI generativa – per promuovere la sicurezza e l’affidabilità della tecnologia, salvaguardare i principi democratici e il rispetto della legge e garantire che l’uomo resti sempre al centro del processo di sviluppo.

Le linee guida includono impegni per mitigare i rischi e gli abusi e per identificare le vulnerabilità, incoraggiare la condivisione responsabile delle informazioni, la segnalazione degli incidenti e gli investimenti nella sicurezza informatica, nonché un sistema di etichettatura per consentire agli utenti di identificare i contenuti generati dall’AI.

Vediamo di seguito quali sono gli 11 principi alla base del Codice di Condotta internazionale sull’AI.

  1. Adottare misure appropriate durante lo sviluppo di sistemi avanzati di AI, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi lungo tutto il ciclo di vita dell’AI. Ciò include l’impiego di diverse misure di test interni ed esterni indipendenti, attraverso una combinazione di metodi come il red-teaming, e l’implementazione di misure di mitigazione appropriate per affrontare i rischi e le vulnerabilità identificate. A sostegno di tali test, gli sviluppatori dovrebbero cercare di consentire la tracciabilità, in relazione ai set di dati, ai processi e alle decisioni prese durante lo sviluppo del sistema
  2. Adottare misure volte a prevenire modelli di uso improprio, dopo l’impiego, compreso il collocamento sul mercato. Questo principio fa riferimento alle pratiche che le aziende devono adottare internamente ed esternamente per facilitare l’individuazione o la segnalazione di problemi relativi alla sicurezza e la vulnerabilità dei sistemi anche facilitando, ad esempio, questo processo da parte di terzi
  3. Segnalare pubblicamente le capacità, i limiti e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di AI, per garantire una sufficiente trasparenza, contribuendo così ad aumentare la responsabilità. Per fare ciò le organizzazioni sono invitate a pubblicare rapporti di trasparenza di facile comprensione per i developer e gli utilizzatori e contenenti informazioni significative per tutti i nuovi rilasci significativi di sistemi avanzati di AI
  4. Lavorare per una condivisione responsabile delle informazioni e per la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di AI, anche con l’industria, i governi, la società civile e il mondo accademico
  5. Sviluppare, implementare e divulgare politiche di governance dell’AI e di gestione del rischio, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e le misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi avanzati di AI
  6. Investire e implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la cyber sicurezza e le protezioni contro le minacce interne in tutto il ciclo di vita dell’AI
  7. Sviluppare e distribuire meccanismi affidabili di autenticazione e provenienza dei contenuti, ove tecnicamente fattibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’AI. Ciò include, ove appropriato e tecnicamente fattibile, l’autenticazione dei contenuti come meccanismi di provenienza per i contenuti creati con il sistema avanzato di AI di un’organizzazione. I dati di provenienza devono includere un identificatore del servizio o del modello che ha creato il contenuto, ma non devono necessariamente includere informazioni sull’utente
  8. Dare priorità alla ricerca per mitigare i rischi per la società, la sicurezza e la protezione e dare priorità agli investimenti in misure di mitigazione efficaci
  9. Dare priorità allo sviluppo di sistemi avanzati di AI per affrontare le maggiori sfide del mondo, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione
  10. Promuovere lo sviluppo e l’adozione di standard tecnici internazionali
  11. Implementare misure appropriate di inserimento dei dati e di protezione dei dati personali e della proprietà intellettuale, incluse misure volte alla prevenzione dei bias degli algoritmi

Un’AI sicura per vincere le più importanti sfide mondiali

Sia i Principi Guida per l’AI che il Codice di Condotta per l’AI saranno rivisti e aggiornati se necessario, anche attraverso consultazioni inclusive con più parti interessate, per garantire che rimangano adatti allo scopo e rispondano a questa tecnologia in rapida evoluzione.

I leader del G7 hanno invitato le organizzazioni che sviluppano sistemi avanzati di AI a impegnarsi ad applicare il Codice di condotta internazionale. I primi firmatari saranno annunciati nel prossimo futuro.

“Riteniamo che i nostri sforzi congiunti attraverso il Processo di Hiroshima sull’AI promuoveranno un ambiente aperto e abilitante in cui i sistemi di AI sicuri, protetti e degni di fiducia siano progettati, sviluppati, distribuiti e utilizzati per massimizzare i benefici della tecnologia, mitigandone al contempo i rischi, per il bene comune in tutto il mondo, anche nelle economie emergenti e in via di sviluppo, al fine di colmare i divari digitali e raggiungere l’inclusione digitale”, si legge nella dichiarazione congiunta rilasciata a termine del Summit.

Valuta la qualità di questo articolo

C
Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

email Seguimi su

Articoli correlati

Articolo 1 di 5