Uno studio mette in guardia sui rischi legati all’Intelligenza Artificiale: i possibili danni per i mercati, i consumatori, i lavoratori e la democrazia

Se l‘Intelligenza Artificiale (AI) continuerà ad essere impiegata lungo la sua traiettoria attuale senza essere regolamentata potrebbe produrre danni sociali, economici e politici: è quanto emerge dal paper “Harms of AI” di Daron Acemoglu, professore di economia al Massachusetts Institute of Technology (MIT) ed esperto in robotica e Intelligenza Artificiale.

Nel documento, Acemoglu conclude che se non regolata, l’AI potrebbe danneggiare i mercati, provocando danni per la concorrenza, la privacy e la scelta dei consumatori. Ma non solo: l’eccessiva automazione del lavoro potrebbe fallire nell’obiettivo di aumentare la produttività del lavoratori e allo stesso tempo portare a un abbassamento dei salari e un conseguente aumento delle disuguaglianze sociali.

Ad essere danneggiato sarebbe anche il discorso politico, sostiene l’economista, ossia la “linfa vitale della democrazia”.

L’obiettivo del documento è quello di analizzare le possibili conseguenze sociali ed economiche di un rapido e incontrollato progresso dell’Intelligenza Artificiale. “Una tecnologia che sicuramente sarà tutto ciò che i suoi entusiasti creatori e sostenitori sognano, ma che probabilmente porterà a trasformazioni nell’economia, la società e la politica nei decenni a venire, e alcuni di questi sono già visibili”, scrive Acemoglu, che invita ad aprire discussioni sull’argomento.

L’AI e il controllo dell’informazione

I dati sono la linfa vitale dell’Intelligenza Artificiale. Infatti, per poter addestrare gli algoritmi di AI e trasformare problemi decisionali in compiti di previsione c’è bisogno di una grande quantità di dati. I ricercatori e gli economisti impegnati in questo ambito partono dalla premessa che i dati creano effetti positivi sulla previsione, il design del prodotto e l’innovazione.

Tuttavia, sottolinea Acemoglu, la combinazione della domanda di dati da parte delle tecnologie di AI e la capacità delle tecniche di AI di elaborare grandi quantità di dati su utenti, consumatori e cittadini produce una serie di potenziali preoccupanti lati negativi.

A partire dalla violazione della privacy dei cittadini. Oggi, le compagnie e le piattaforme digitali riescono a raccogliere una grande quantità di dati, anche sensibili, sui cittadini. Tuttavia, quando una persona fornisce i suoi dati, sta anche dando informazioni su altri. È questa la “dimensione sociale” dei dati di cui parla Acemoglu, che tanti ricercatori trascurano.

Questa dimensione introduce due effetti correlati. In primo luogo, la rivelazione indiretta dei dati di altri potrebbe avere un impatto negativo sulla loro privacy. Inoltre, quando un individuo condivide i suoi dati e rivela informazioni sugli altri, questo riduce il valore delle informazioni degli altri sia per loro stessi che per i potenziali acquirenti di dati (come le piattaforme o le aziende di AI). Questo per la semplice ragione che quante più informazioni sono condivise su un individuo, meno importanti diventano i dati dell’individuo stesso per prevedere le sue decisioni.

Questa grande quantità di dati a disposizione di aziende e piattaforme può consentire, da un lato, una migliore progettazione dei prodotti per soddisfare le esigenze dei consumatori. Dall’altro, potrebbe cambiare la natura della competizione sul mercato tra le varie aziende.

Le aziende e le piattaforme che possono raccogliere e distribuire quantità eccessive di informazioni sugli individui hanno una maggiore capacità di riuscire a catturare più consumatori – e quindi un maggiore ritorno economico – attraverso la discriminazione dei prezzi o la violazione della loro privacy nell’elaborare e utilizzare i loro dati.

C’è poi un altro aspetto da considerare, ossia che questi dati – che danno informazioni su come un consumatore può reagire a un determinato prodotto o pubblicità – possono essere utilizzati per manipolare il consumatore, senza che questi se ne renda conto, sfruttando i suoi interessi, o particolari vulnerabilità.

“Anche se queste preoccupazioni sono vecchie quanto il concetto di pubblicità stessa, gli economisti e i politici sperano che i consumatori possano apprendere a proteggere se stessi. Tuttavia, nell’era dell’AI e dei Big Data, queste nozioni potrebbero presto diventare obsolete”, scrive Acemoglu.

Gli effetti dell’Intelligenza Artificiale sul mercato del lavoro

La riflessione sugli effetti dell’AI sul mercato del lavoro si inserisce, ovviamente, nel contesto del mercato americano, ossia quello di riferimento per l’autore. Un mercato che, precisa Acemoglu, già da tempo e ben prima dell’avvento dell’AI era eccessivamente impegnato nel tentativo di ridurre il costo del lavoro e i salari dei lavoratori.

Sforzi che da un lato rischiano di ridurre la produttività del lavoratore (e quindi non creare un effettivo risparmio alle aziende) e dall’altro hanno ripercussioni sociali, con i lavoratori che perdono l’impiego o accettano la riduzione del salario per non perderlo (con tutte le conseguenze sociali che questo comporta, come aumento della povertà e delle disuguaglianze).

In tale contesto l’AI, come ampia piattaforma tecnologica, avrebbe potuto in linea di principio rettificare questa tendenza, per esempio, promuovendo la creazione di nuovi compiti ad alta intensità di lavoro o fornendo strumenti per i lavoratori per avere maggiore iniziativa.

“Ma questo non sta accadendo”, precisa l’economista. “Per esempio, l’automazione è l’esempio tipico degli sforzi per tagliare i costi del lavoro, e, come altri sforzi, può essere eccessiva”.

L’automazione, spiega Acemoglu, ha eliminato i compiti di routine nelle occupazioni amministrative e nei corridoi delle fabbriche, riducendo drasticamente la domanda e i salari per questi lavoratori.

È andata meglio a manager, ingegneri, operatori finanziari, di consulenza e di design sia perché erano essenziali per il successo delle nuove tecnologie, sia perché beneficiavano di una maggiore flessibilità, grazie all’automazione di compiti che completavano il loro lavoro.

Mentre l’automazione prendeva piede, il divario salariale tra la parte superiore e quella inferiore della forbice della distribuzione del reddito si è ingrandito.

L’AI potrebbe, in teoria, contribuire a risolvere questo problema. Potrebbe, in linea di principio, essere usata per aumentare la produttività dei lavoratori ed espandere l’insieme dei compiti in cui gli umani hanno un vantaggio comparativo, piuttosto che concentrarsi principalmente sull’automazione.

Se viene usata in questo modo, l’AI può controbilanciare alcuni degli effetti negativi dell’automazione sul lavoro e potrebbe generare effetti di benessere più positivi e conseguenze distributive benefiche. Tuttavia, non c’è alcuna garanzia che la composizione del cambiamento tecnologico in generale e l’equilibrio dell’IA tra automazione e attività più a misura d’uomo siano ottimali.

Infatti, ci sono molte possibili distorsioni, economiche e sociali, che incoraggiano un’eccessiva automazione tramite l’IA.

I sostenitori dell’Intelligenza Artificiale sperano e credono che l’implementazione di questa tecnologia porterà all’automatizzazione di task di routine e a bassa specializzazione e che i lavoratori avranno in questo modo maggiore tempo a disposizione da dedicare a compiti più specializzati.

Secondo questa teoria, l’automatizzazione del lavoro grazie all’AI porterebbe, dunque, a “un’elevazione del lavoratore”, che si specializzerebbe nella risoluzione di problemi più complessi e in compiti creativi.

Tuttavia, affidare alle macchine una quantità sempre maggiore di decisioni da prendere, potrebbe in realtà rendere gli uomini peggiori decision-makers, soprattutto quando la posta in gioco è un ritorno economico.

Infine, l’economista si sofferma sull’attrattività che tecnologie di AI possono avere sulle aziende nel monitoraggio dei lavoratori. Poiché l’AI è più efficiente di un umano in questi compiti, la sua diffusione in tali mansioni potrebbe avere ripercussioni sociali significative.

Ripercussioni che conporterebbero sia la perdita di posti di lavoro in mansioni di supervisione, sia un abbassamento del salario e della qualità di vita per i lavoratori.

Tutte cose di cui si è parlato già più volte: basti pensare, ad esempio, ai driver di Amazon, a cui viene assegnato un determinato tempo per ciascuna consegna, superato il quale il sistema genera un alert automatico che spinge il supervisore a contattare il lavoratore per indagare sulla motivazione del ritardo.

L’Intelligenza Artificiale, la comunicazione e la democrazia

L’Intelligenza Artificiale, secondo l’autore, ha anche esacerbato vari problemi politici e sociali relativi alla comunicazione, alla persuasione e alla politica democratica che, ancora una volta, esistevano ben prima dell’avvento di questa tecnologia.

La principale preoccupazione esplorata da Acemoglu è che, sotto l’ombra dell’AI, la democrazia sia diventata più difficile, o anche fondamentalmente imperfetta.

Pensiamo, ad esempio, al ruolo dei social media nel polarizzare il dibattito politico e diffondere false informazioni. Questo avviene grazie alle cosiddette “camere dell’eco”. Grazie all’analisi comportamentale fatta dagli algoritmi, un utente è portato a vedere sui social media contenuti relativi ai suoi interessi e a ciò a cui credere, oltre ad essere portato a connettersi con persone con interessi e credo simili.

Questo vuol dire che un utente che ha una qualsiasi convinzione sbagliata troverà nei social la “conferma” di tale convinzione, perché gli algoritmi tenderanno a mostrargli quei determinati contenuti (visto che la piattaforma ha interesse a promuovere l’engagement degli utenti).

Vi sono, inoltre, le sfide create da un modello di comunicazione on-line, spinto dall’AI, rispetto alla comunicazione offline. La comunicazione bilaterale off-line, specialmente quando l’argomento è politico o sociale, si basa sulla fiducia tra le parti. La fiducia che naturalmente esiste nelle reti sociali personali può permettere questo tipo di comunicazione.

Viceversa, quando la comunicazione avviene online e in contesti multilaterali, questo tipo di comunicazione basata sulla fiducia diventa più difficile. Questo può favorire messaggi non politici, come il gossip, che poi scacciano la comunicazione politica, con effetti potenzialmente deleteri per il discorso politico e la democrazia.

Questa potenziale barriera alla comunicazione online è esacerbata quando c’è competizione per l’attenzione, che è incoraggiata dalla natura trasmissiva o multilaterale della comunicazione online.

Da non sottovalutare è anche il cosiddetto “big brother effect”. Come accade già in molti Paesi “democratici” e non, l’AI può essere utilizzata dai governi per migliorare la sorveglianza degli antagonisti politici.

“Poiché la minaccia di proteste ha un ruolo disciplinante sui governi non democratici, e anche su alcuni governi democratici, lo spostamento di potere dalla società civile verso i governi indebolirà la democrazia e aggraverà le distorsioni politiche”, spiega Acemoglu.

L’automazione, inoltre, può anche generare un impatto negativo indiretto sulla democrazia e sulla politica redistributiva quando assicurare la cooperazione nei luoghi di lavoro è una motivazione importante per le élite a fare concessioni. Al tempo stesso, quando l’automazione porta solo piccoli guadagni di produttività, incoraggia l’élite a ridurre la redistribuzione e a fare meno concessioni democratiche.

Questo renderà le politiche meno rispondenti ai desideri della maggioranza e può aumentare ulteriormente le disuguaglianze sociali. I benefici dell’automazione in termini di produttività possono attenuare questo effetto, perché un aumento della produzione guidato dall’automazione aumenta il costo di perdere la cooperazione del lavoratore.

Tuttavia, esiste un livello sufficientemente alto di automazione tale che, una volta raggiunto questo livello, il lavoro diventa sufficientemente irrilevante per la produzione che il ritiro della loro cooperazione cessa di essere molto costoso.

Dopo questa soglia, l’élite può preferire abbandonare le istituzioni democratiche e trattenere qualsiasi concessione, e procedere senza la cooperazione del lavoratore, ancora una volta con effetti dannosi per la democrazia, la redistribuzione e la coesione sociale.

Altri rischi derivanti dall’AI

Accanto ai rischi già citati, Acemoglu ne individua altri. Primo fra tutti, sostiene l’economista, la possibile implementazione dell’AI in ambienti lavorativi potrebbe essere utilizzata dalle aziende come strumento “di minaccia” per incrementare il loro potere di negoziazione con la forza lavoro.

Non va poi dimenticato che ci sono già evidenze di discriminazioni sul posto di lavoro dovute all’utilizzo di algoritmi di Intelligenza Artificiale, quando determinate decisioni manageriali vengono affidate solamente ad essi. Sull’argomento è intervenuta anche l’Ocse, sostenendo il bisogno di un approccio etico e di una regolamentazione per evitare questi effetti.

Queste discriminazioni, inoltre, potrebbero verificarsi in altri ambiti, anche nella sfera politica, qualora si decidesse di affidare un numero sempre maggiore di decisioni agli algoritmi di AI.

In aggiunta, le tecnologie AI hanno già iniziato ad essere incorporate nelle armi e si sta avanzando verso sistemi d’arma autonomi. Queste nuove tecnologie causeranno una serie di dilemmi etici e sociali, e potrebbero aver bisogno di essere regolamentate prima che i prototipi siano dispiegati o anche completamente sviluppati.

Oltre a queste questioni etiche e sociali, le armi alimentate dall’AI armi possono rafforzare ulteriormente i governi contro la società civile, i manifestanti e anche alcuni gruppi di opposizione.

Il potenziale lato negativo delle tecnologie AI che ha ricevuto più attenzione è il “problema dell’allineamento”: il problema di assicurare che le macchine intelligenti abbiano obiettivi allineati con quelli dell’umanità. Molti ricercatori e intellettuali pubblici sono preoccupati che le macchine raggiungano capacità sovrumane e poi si rivoltino implicitamente o esplicitamente contro gli umani.

“Anche se la mia opinione è che queste preoccupazioni siano un po’ esagerate e che spesso distraggano dai problemi a breve termine creati dalle tecnologie di AI, esse meritano un’attenta considerazione, monitoraggio e preparazione”, scrive l’autore.

Infine, vi è poi una dimensione internazionale del problema. Mentre in alcuni Paesi, come gli Stati Uniti e l’Europa si è iniziato a discutere di alcune forme di regolamentazione per l’AI, in altri (come la Cina), queste tecnologie rimangono ancora non regolamentate. Qualsiasi discussione in questo senso, specifica Acemoglu, deve essere fatta in un ottica internazionale, per essere efficace.

Il ruolo della scelta tecnologica e della regolamentazione: alcune idee per mitigare gli effetti negativi dell’AI

“I problemi sottolineati non derivano dall’AI di per sé, quanto piuttosto sulle scelte fatte dalle aziende e dalle società sull’utilizzo di tali tecnologie”, sottolinea l’economista.

Emergono quindi due problemi di base: le scelte che devono essere prese sulle tecnologie esistenti e su quelle future e la mancanza di una regolamentazione adeguata.

In merito al problema dell’utilizzo dei dati dei cittadini, una corretta regolamentazione potrebbe andare a limitare sia i dati che i giganti del Web possono raccogliere (proteggendo quelli più sensibili), sia l’utilizzo che possono farne.

Questo, accompagnato a politiche di promozione della consapevolezza su come questi dati vengono utilizzati per influenzare le loro scelte, potrebbe aiutare a mitigare gli effetti negativi.

Inoltre, se una compagnia potesse acquisire i dati dei consumatori in possesso di un’altra che si trova al momento in una posizione di monopolio (o quasi), si ristabilirebbe una giusta competizione.

La ricerca e i ricercatori possono avere un ruolo attivo nel mitigare i possibili effetti negativi dell’AI. Alcuni di loro potrebbero ricercare (come già accade in alcuni casi) possibili applicazioni dell’AI che in contrasto rafforzano la posizione dei cittadini.

Allo stesso tempo, se uno qualsiasi dei meccanismi relativi al controllo e all’uso improprio dell’informazione è rilevante, allora questo produrrà anche una forte domanda di tecnologie che permettono alle aziende di acquisire e sfruttare meglio questo tipo di informazioni.

Questo è ancora più vero quando la capacità dei consumatori di pagare per tecnologie alternative è limitata rispetto alle risorse nelle mani delle aziende.

In un tale scenario, la domanda di uso improprio dell’AI sarà trasmessa ai ricercatori, che possono quindi rispondere dedicando il loro tempo a sviluppare le tecnologie di AI di cui le aziende hanno bisogno e allontanarsi dalle tecnologie che possono avere un maggiore valore sociale o dare potere a consumatori e cittadini.

“È per questa ragione che l’innovazione, quando è essa stessa non regolamentata, è improbabile che produca dinamiche autocorrettive. Al contrario, la domanda di uso improprio dell’AI distorcerà tipicamente l’allocazione della ricerca tra le diverse applicazioni, amplificandone i costi sociali ed economici”, spiega l’autore.

Rischi e considerazioni che, precisa, sono attualmente soltanto teorie, poiché non esistono ancora evidenze empiriche sufficienti a loro supporto. Esistono, certamente, evidenze di tali effetti sugli ambiti citati (economia, società, mercato del lavoro e democrazia), ma non sono sufficiente per indicare l’Intelligenza Artificiale quale responsabile diretto di tali fenomeni.

“Tuttavia, proprio perché l’AI è una piattaforma tecnologica promettente, che mira a trasformare ogni settore dell’economia e ogni aspetto della nostra vita sociale, è imperativo per noi studiare quali sono i suoi lati negativi, soprattutto nella sua traiettoria attuale”, conclude Acemoglu.

© RIPRODUZIONE RISERVATA

Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

2 thoughts on “Uno studio mette in guardia sui rischi legati all’Intelligenza Artificiale: i possibili danni per i mercati, i consumatori, i lavoratori e la democrazia

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.