L'intelligenza artificiale sta diventando sempre più diffusa nella nostra vita quotidiana, è pertanto necessario che i sistemi basati sull’AI proteggano i diritti umani.
L’intelligenza artificiale
Nel mondo iperconnesso in cui oggi viviamo, l’intelligenza artificiale (AI) e il machine learning hanno un ruolo determinante: algoritmi per il riconoscimento facciale, per l’accesso al credito, per la selezione del personale e l’assegnazione di docenze e riconoscimenti economici.
L’intelligenza artificiale utilizza algoritmi di Machine Learning per sviluppare strumenti e modelli per raggiungere i suoi obiettivi. In generale, i sistemi di intelligenza artificiale funzionano ingerendo grandi quantità di dati, classificandoli, analizzandoli per correlazioni e modelli, e utilizzando questi modelli per fare previsioni. La programmazione dell’AI si concentra su tre abilità cognitive: apprendimento, ragionamento e autocorrezione. Questo aspetto della programmazione si concentra sull’acquisizione di dati e sulla creazione di regole su come trasformare i dati in informazioni utilizzabili. Le regole, chiamate algoritmi, forniscono istruzioni dettagliate su come completare un’attività specifica.
Il pregiudizio dell’AI
Quanto finora esposto prova indubbiamente che gli strumenti di AI presentano una serie di agevolazioni e nuove funzionalità per le aziende, ingestibili da un operatore umano, ma l’uso dell’intelligenza artificiale solleva anche diverse questioni etiche.
I sistemi basati sull’AI hanno ampi impatti sociali ed economici e potrebbero amplificare discriminazioni e disuguaglianze sociali. Per il momento, le autorità di regolamentazione hanno risposto concentrandosi strettamente sulla soluzione tecnocentrica di algoritmi e set di dati di debiasing. In tal modo, però, si rischia di creare un problema maggiore, sia per la governance dell’AI che per la democrazia, perché questo approccio ristretto lascerebbe complessi problemi socio-tecnici nel dominio della progettazione, e quindi nelle mani delle grandi aziende tecnologiche. È, piuttosto, necessario elaborare soluzioni efficaci attraverso normative audaci che definiscano i limiti dell’implementazione pervasiva dei sistemi basati sull’intelligenza artificiale.
Per esemplificare la portata di tale pervasività, possiamo far riferimento all’utilizzo dell’intelligenza artificiale e del machine learning utilizzato da banche e aziende, rispettivamente per prestare denaro o assumere il personale.
Luc Julia, CTO di Samsung Electronics e co-creatore di Siri, ha affermato che “l’intelligenza artificiale, proprio come qualsiasi altro strumento, può essere utilizzata in modo improprio. L’AI non decide di essere cattiva; siamo noi, umani, a farne un uso sconsiderato.”
L’intelligenza artificiale dovrebbe, inoltre, essere in grado di dimostrare come avviene il processo decisionale, per facilitare eventuali modifiche all’algoritmo che ne sta alla base, per fornire tutela agli individui che subiscono una decisione e per avere traccia delle decisioni errate. Una delle soluzioni prospettate dagli studiosi della materia suggerisce di affiancare ai data scientist consulenti di etica e specialisti incaricati di analizzare eventuali pregiudizi e discriminazioni.
AI e GDPR
I dati utilizzati per addestrare un algoritmo sono una delle principali fonti da cui emerge il pregiudizio. Uno dei presupposti del corretto funzionamento di un sistema basato sull’intelligenza artificiale è, come già si è evidenziato, l’integrazione al suo interno di set di dati coerenti, precisi e accurati al fine di non distorcere i risultati, ma anche riprodurre i pregiudizi umani.
Tale presupposto si ricollega a quanto previsto dal GDPR che dispone che i dati devono essere trattati nel rispetto dei diritti e le libertà fondamentali delle persone fisiche. Il Regolamento UE prevede infatti che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, metta in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e impedisca, tra l’altro, effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero un trattamento che comporti misure aventi tali effetti (Considerando 71 e art. 22 GDPR). Al contrario di quanto disposto dalla normativa in materia di protezione dei dati personali, invece, molti sistemi di intelligenza artificiale utilizzano modelli algoritmici con dati distorti e anche alcuni pregiudizi. Questo è il motivo per il quale alcuni sistemi di intelligenza artificiale spesso effettuano discriminazione razziale, di genere, sanitaria, religiosa o ideologica. Per la conformità al GDPR, le aziende dovranno quindi imparare a mitigare tali pregiudizi nei loro sistemi di intelligenza artificiale.
Conclusioni
Lo scorso aprile, la Commissione europea ha presentato la proposta del Regolamento sull’Intelligenza Artificiale che risponde altresì alle richieste esplicite del Parlamento europeo e del Consiglio europeo, che hanno ripetutamente chiesto un intervento legislativo che assicuri il buon funzionamento del mercato interno per i sistemi di intelligenza artificiale, nel contesto del quale tanto i benefici quanto i rischi legati all’intelligenza artificiale siano adeguatamente affrontati a livello dell’Unione europea. Essa contribuisce all’obiettivo dell’Unione di essere un leader mondiale nello sviluppo di un’intelligenza artificiale sicura, affidabile ed etica, come dichiarato dal Consiglio europeo, e garantisce la tutela dei principi etici, come richiesto specificamente dal Parlamento europeo.
Un’AI affidabile può dunque contribuire a realizzare una società giusta, aiutando ad aumentare la salute e il benessere dei cittadini favorendo l’uguaglianza nella distribuzione delle opportunità economiche, sociali e politiche. Ma c’è il rischio che la rapida evoluzione delle tecnologie di intelligenza artificiale possa essere un ostacolo alla formazione di una regolamentazione significativa dell’AI, in quanto la velocità dell’innovazione potrebbe rendere immediatamente obsolete le leggi esistenti.