La tutela dei diritti umani e lo sviluppo dell’intelligenza artificiale

La tutela dei diritti umani e lo sviluppo dell’intelligenza artificiale

L’intelligenza artificiale (IA) ha un ruolo fondamentale nella trasformazione digitale della società.

Essa è ormai parte integrante della vita di ogni persona ed è sempre più utilizzata dalle autorità pubbliche per valutare e prendere decisioni che possono avere gravi e concrete conseguenze sui diritti umani.

Trovare il giusto equilibrio tra sviluppo tecnologico e protezione dei diritti umani rappresenta ormai una questione di assoluto rilievo.

Il Commissario per i diritti umani del Consiglio d’Europa Dunja Mijatović ha ricordato che garantire che i diritti umani siano rafforzati e non minati dall’intelligenza artificiale è uno dei fattori chiave che definiranno il mondo in cui viviamo.

Occorre premettere che l’espressione intelligenza artificiale ha un significato generico riferito ad un insieme di scienze, teorie e tecniche dedicate al miglioramento della capacità delle macchine di fare cose che richiedono intelligenza.

In ragione del fatto che l’intelligenza artificiale è foriera di opportunità vantaggiose ma anche di rischi, nel maggio 2019 è stata adottata una raccomandazione sull’intelligenza artificiale e i diritti umani con l’intento di indicare alle autorità nazionali come massimizzare il potenziale dei sistemi di intelligenza artificiale e prevenire o mitigare l’impatto negativo che essi possono avere sulla vita e sui diritti delle persone.

La Raccomandazione si basa sul lavoro svolto in questo settore dal Consiglio d’Europa, in particolare la Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari, le Linee guida sull’intelligenza artificiale e la protezione dei dati, la Dichiarazione del Comitato dei Ministri sulla manipolazione capacità dei processi algoritmici e lo Studio sulle dimensioni dei diritti umani delle tecniche di elaborazione automatizzata dei dati e le possibili implicazioni normative, nonché il rapporto del Relatore speciale delle Nazioni Unite sulla promozione e la protezione della libertà di opinione e di espressione.

Destinatari di tale documento sono gli Stati membri, ma i principi in esso contenuti riguardano chiunque influenzi in modo significativo, direttamente o indirettamente, lo sviluppo, l’implementazione o gli effetti di un sistema di intelligenza artificiale.

La raccomandazione si intitola “Unboxing artificial intelligence: 10 steps to protect human rights” e si focalizza su 10 aree di interesse prioritario:

1. Valutazione dell’impatto sui diritti umani

Gli Stati membri dovrebbero stabilire un quadro giuridico che stabilisca una procedura per le autorità pubbliche per effettuare valutazioni dell’impatto sui diritti umani (HRIA) sui sistemi di IA.

Nell’ambito del quadro giuridico HRIA, le autorità pubbliche devono effettuare un’autovalutazione dei sistemi di IA esistenti e devono includere anche una revisione esterna da parte di un organo di supervisione indipendente.

Qualora dall’autovalutazione o dal controllo esterno emerga un rischio reale di violazione dei diritti umani, l’HRIA deve definire le misure e i meccanismi utili a prevenire o mitigare tale rischio.

Nel caso in cui, invece tale rischio si è già verificato in seguito all’utilizzo di un sistema di IA, occorre sospenderne immediatamente l’impiego fino all’adozione delle misure di cui sopra.

Le HRIA, compresi i risultati della ricerca o le conclusioni del processo di revisione esterna, devono essere messe a disposizione del pubblico in un formato facilmente accessibile e leggibile da una macchina.

2. Consultazioni pubbliche

L’uso statale dei sistemi di IA va disciplinato da standard di appalto aperti, applicati in un processo gestito in modo trasparente.

Gli Stati membri dovrebbero, cioè, consentire consultazioni pubbliche in varie fasi dell’impegno di un sistema di intelligenza artificiale: ciò implica la pubblicazione tempestiva e preventiva di tutte le informazioni pertinenti.

Le consultazioni dovrebbero fornire un’opportunità a tutte le parti interessate, inclusi attori statali, rappresentanti del settore privato, università, settore non profit, media e rappresentanti di emarginati e colpiti gruppi o comunità, per fornire input.

3. Norme sui diritti umani nel settore privato

Gli Stati membri, al fine di rispettare gli obblighi positivi e procedurali ai sensi della Convenzione europea dei diritti dell’uomo, devono applicare le misure necessarie a proteggere i diritti umani da eventuali violazioni da parte degli attori dell’IA durante l’intero ciclo di vita di tali sistemi.

A tal fine occorre che le legislazioni statali non siano di ostacolo all’effettiva responsabilità, ma creino piuttosto condizioni favorevoli al rispetto dei diritti umani anche attraverso l’applicazione di misure aggiuntive quali il ricorso ad una due diligence.

4. Informazione e trasparenza

L’utilizzo di un sistema di intelligenza artificiale in qualsiasi processo decisionale che abbia un impatto significativo sui diritti umani di una persona deve essere identificabile.

Gli individui, cioè, devono essere in grado di capire come vengono prese e verificate le decisioni che impattano sui loro diritti.

Ad esempio, se un sistema di IA viene utilizzato per l’interazione con individui nell’ambito di servizi pubblici – in particolare giustizia, welfare e sanità- è necessario avvisare l’utente e comunicare la possibilità di ricorrere ad un professionista su richiesta e senza indugio.

In altri termini, nessun sistema di intelligenza artificiale dovrebbe essere complesso nella misura in cui non consente la revisione ed il controllo umano.

5. Supervisione indipendente

Gli Stati membri dovrebbero stabilire un quadro legislativo volto ad una supervisione indipendente ed efficace sul rispetto dei diritti umani in relazione allo sviluppo, alla diffusione e all’uso dei sistemi di intelligenza artificiale da parte di autorità pubbliche ed enti privati.

Tali organismi di controllo non solo devono essere indipendenti da autorità ed enti, ma devono altresì essere dotati di competenze adeguate allo svolgimento della funzione di supervisore.

Essi, invero, hanno il compito di indagare e monitorare in modo proattivo la conformità dei sistemi di intelligenza artificiale ai diritti umani, di ricevere e gestire i reclami delle persone interessate ed effettuare revisioni periodiche sulle capacità del sistema e sugli sviluppi tecnologici più in generale.

Tali organismi supervisori, inoltre, riferiscono regolarmente il loro operato al Parlamento e possono intervenire qualora identifichino un rischio di violazioni dei diritti umani.

6. Non discriminazione e uguaglianza

I rischi di discriminazione derivanti dall’uso di sistemi di intelligenza artificiale devono essere prevenuti e mitigati con particolare attenzione per i gruppi rischiano di vedere maggiormente compromessi i loro diritti: si pensi a donne, bambini, anziani, persone economicamente svantaggiate, membri della comunità LGBTI, persone con disabilità e gruppi “razziali”, etnici o religiosi.

La partecipazione attiva e la consultazione significativa con una comunità diversificata che include una rappresentanza efficace di questi gruppi in tutte le fasi del ciclo di vita dell’IA è una componente importante della prevenzione e della mitigazione degli impatti negativi sui diritti umani.

Gli Stati membri dovrebbero applicare il massimo livello di controllo quando utilizzano i sistemi di intelligenza artificiale nel contesto dell’applicazione della legge, soprattutto quando si impegnano in metodi come la polizia predittiva o preventiva.

7. Protezione dei dati e privacy

Lo sviluppo, la formazione, la sperimentazione e l’uso di sistemi di IA che si basano sul trattamento dei dati personali devono garantire il diritto al pieno rispetto della vita privata e familiare ai sensi dell’articolo 8 della Convenzione europea dei diritti dell’uomo, compreso il diritto a una forma di autodeterminazione informativa riferita ai propri dati.

Il trattamento dei dati nel contesto dei sistemi di IA deve essere proporzionato allo scopo legittimamente perseguito mediante tale trattamento.

In altre parole, deve sempre esserci un giusto equilibrio tra gli interessi perseguiti attraverso lo sviluppo e la diffusione del sistema di IA ed i diritti e le libertà in gioco.

In quest’ottica, gli Stati membri dovrebbero attuare efficacemente la Convenzione modernizzata del Consiglio d’Europa per la protezione delle persone rispetto al trattamento automatizzato dei dati personali (Convenzione n. 108 del gennaio 1981), nonché qualsiasi altro strumento internazionale sulla protezione dei dati e la privacy che sia vincolante per lo Stato membro.

8. Libertà di espressione, libertà di riunione e associazione e diritto al lavoro

Gli Stati membri dovrebbero prendere in considerazione l’intero spettro di standard internazionali sui diritti umani che possono essere applicati dall’uso di sistemi di intelligenza artificiali.

In primo luogo è opportuno avere contezza dell’obbligo di creare un ambiente informativo diversificato e pluralistico e dell’impatto negativo che la moderazione e la cura dei contenuti guidate dall’intelligenza artificiale possono avere sull’esercizio del diritto alla libertà di espressione, accesso alle informazioni e libertà di opinione.

Occorre altresì prestare attenzione all’impatto che l’uso dei sistemi di intelligenza artificiale può avere sulla libertà di riunione e associazione, soprattutto in contesti in cui queste libertà sono difficilmente esercitabili offline.

Infine si rende necessario un attento monitoraggio dell’impatto negativo che l’utilizzo dell’intelligenza artificiale e la conseguente accelerazione dell’automazione possono avere sulla disponibilità di lavoro.

A tal fine, dovrebbero essere effettuate valutazioni periodiche per monitorare il numero e i tipi di posti di lavoro creati e persi a causa degli sviluppi dell’IA; dovrebbero essere sviluppati piani adeguati per la reschooling e la riassegnazione di posti di lavoro a quei lavoratori colpiti da una diminuzione della domanda di lavoro umano.

Gli Stati membri dovrebbero inoltre adattare i programmi di studio per garantire l’accesso a lavori che richiedono competenze relative ai sistemi di IA.

9. Accesso ai rimedi

I sistemi di intelligenza artificiale devono sempre rimanere sotto il controllo umano anche nelle ipotesi in cui tali sistemi si rivelino in grado di prendere decisioni indipendentemente da uno specifico intervento umano.

Gli Stati membri devono stabilire chiare linee di responsabilità per le violazioni dei diritti umani che possono sorgere in varie fasi del ciclo di vita del sistema di IA: la responsabilità deve sempre ricadere su una persona fisica o giuridica.

Ne consegue che, chiunque dichiari di essere vittima di una violazione dei diritti umani derivante dallo sviluppo, diffusione o utilizzo da parte di un’entità pubblica o privata di un sistema di IA dovrebbe disporre di un rimedio efficace dinanzi a un’autorità nazionale.

Tali rimedi dovrebbero comportare una riparazione rapida e adeguata ed un risarcimento per qualsiasi danno: ciò include misure di diritto civile, amministrativo o, se del caso, penale.

10. Promozione dell’alfabetizzazione sull’intelligenza artificiale

La conoscenza e la comprensione dell’intelligenza artificiale devono essere promosse nelle istituzioni governative, negli organismi di controllo indipendenti, nelle strutture nazionali per i diritti umani, nel sistema giudiziario, nelle forze dell’ordine e con il pubblico in generale.

In tal senso, gli Stati membri dovrebbero prendere in considerazione la creazione di un organo consultivo su tutte le questioni relative all’IA all’interno del governo.

Dovrebbero altresì investire nel livello di alfabetizzazione sull’intelligenza artificiale attraverso solidi sforzi di sensibilizzazione, formazione e istruzione, anche ed in particolare nelle scuole: ciò non dovrebbe essere limitato all’educazione sul funzionamento dell’IA, ma anche al suo potenziale impatto – positivo e negativo – sui diritti umani.

Dovrebbero, infine, essere compiuti sforzi particolari per raggiungere i gruppi emarginati e quelli svantaggiati per quanto riguarda l’alfabetizzazione informatica in generale.

Con lo scopo di predisporre un quadro giuridico per lo sviluppo, la progettazione e l’applicazione dell’intelligenza artificiale, basata sugli standard del Consiglio d’Europa in materia di diritti umani, democrazia e stato di diritto, è stato istituito un Comitato ad hoc per l’intelligenza artificiale (CAHAI), incaricato dal Comitato dei Ministri.

Inoltre, nell’intento di stabilire una tabella di marcia a lungo termine dell’Unione europea in materia di intelligenza artificiale, il Parlamento europeo ha istituito l’AIDA nella plenaria del 18 giugno 2020.

L’AIDA studierà l’impatto e le sfide dell’introduzione dell’intelligenza artificiale, individuerà obiettivi comuni a livello europeo e proporrà raccomandazioni sulle migliori vie da seguire.

Così facendo, l’Europa dovrebbe diventare leader mondiale in termini di intelligenza artificiale affidabile, contrastando in maniera efficace le eventuali violazioni di diritti umani che possono derivare da uno scorretto utilizzo di sistemi di IA.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti