Intelligenza artificiale e regolamentazione giuridica: criticità ed opportunità in una prospettiva antropocentrica

Intelligenza artificiale e regolamentazione giuridica: criticità ed opportunità in una prospettiva antropocentrica

L’intelligenza artificiale è un tema che attiene all’informatica cognitiva (la cognitive computing: algoritmi capaci di ragionamento e comprensione), l’IA riguarda poi l’apprendimento automatico (il machine learning: algoritmi in grado di apprendere autonomamente determinate mansioni e nuovi criteri di decisione che stabiliscono nuovi modelli di comportamento); attiene alla collaborazione tra uomo e macchina (in particolare nel bilanciamento tra le decisioni prese dall’uomo e quelle prese dalle macchine) e infine attiene alla robotica intelligente (cioè l’IA incorporata nei robot).

In modo particolare, la robotica è un settore disciplinare che ha per oggetto lo studio e la realizzazione di robot nonché le loro applicazioni pratiche nelle attività di produzione industriale e di ricerca scientifica e tecnologica; il termine robotica indica l’insieme delle conoscenze teoriche, tecniche e applicative mediante le quali è possibile svolgere determinate azioni: studio, progettazione, costruzione e programmazione dei robot.

Si pensi, ad esempio, ai sistemi bionici umani, cioè ad una serie di tecnologie (che vanno da protesi bioniche ad esoscheletri alle protesi del corpo alle interfacce cervello-computer), che consentirà di ripristinare le funzioni corporee perse e alla fine superare diversi tipi di disabilità, la cui distribuzione, però, pone problemi più generali per quanto riguarda l’impatto sulle nozioni di natura umana, identità, normalità, disabilità ed i corrispondenti effetti giuridici.

L’intelligenza artificiale è un tema estremamente delicato ed attuale ma sempre più diffuso nella realtà odierna, inoltre costituisce una delle tecnologie strategiche del nostro secolo, in grado di favorire l’economia, il progresso della scienza e modificare in meglio la nostra esistenza.

Ciò, però, da un lato comporta vantaggi e benefici, ma anche difficoltà applicative soprattutto per le questioni giuridiche ed etiche legate all’IA, la cui risoluzione rende necessario un intervento del legislatore.

Esistono molteplici aspetti problematici in termini di regolamentazione giuridica, motivo per cui è necessario delineare un possibile campo d’azione e d’indagine rispetto alle novità apportate dall’intelligenza artificiale, cercando di mettere in risalto gli aspetti positivi e negativi.

Pensiamo, ad esempio, alla relazione che intercorre tra l’intelligenza artificiale e la sanità, (con particolare riferimento alle problematiche legate alla privacy), in particolare, la situazione attuale causata dall’emergenza sanitaria derivante dal Covid-19, ha anche evidenziato la necessità di predisporre strumenti idonei a bilanciare la tutela della privacy e delle libertà fondamentali degli individui con la tutela della salute pubblica.

Proprio per questi motivi, in Europa, è stata vagliata la possibilità di adozione di un sistema volto a tracciare gli spostamenti e gli eventuali contatti con soggetti che hanno contratto il virus. È stata sviluppata una guida per il corretto utilizzo delle applicazioni ed è stata scelta la tecnologia Bluetooth Low Energy, adottabile su base volontaria e adoperabile a livello comunitario.

Anche il Garante della Privacy italiano si è espresso sullo sviluppo dell’app di tracciamento, il quale ha fornito un parere positivo in merito alla produzione di un’applicazione di questo tipo, chiaramente giustificata dall’incontrollata diffusione e dalla difficoltà di gestione della crisi pandemica, per questo motivo il fine è quello di fornire una tutela effettiva e un’adeguata protezione dei dati degli utenti, richiedendo però uno schema normativo di riferimento.

Chiaramente, non sono poche le difficoltà applicative, essendo un sistema del tutto nuovo per l’Italia stante l’unicità della diffusione della pandemia e, anche se si è parlato di una sorta di banco di prova per l’App Immuni, non deve perdersi di vista la necessità di contemperare le esigenze di tutela della salute pubblica con quelle di tutela della riservatezza degli individui.

Le informazioni di cui necessitano le applicazioni, comportano l’utilizzo e lo scambio di un elevato quantitativo di dati personali che se da un lato potrebbero comportare notevoli benefici in termini sia di progresso scientifico che medico, d’altro canto potrebbero essere particolarmente lesive per il diritto alla riservatezza dell’individuo (si pone il problema di bilanciamento tra l’utilizzo dell’intelligenza artificiale e la tutela della privacy).

Per questi motivi, sulle implicazioni etico-giuridiche della IA si colloca anche la protezione dei dati personali dei quali essa si nutre. I dati sono la nuova ricchezza, il nuovo petrolio dell’economia digitale ma in primis c’è l’esigenza di tutelare la persona e a tal proposito si discorre del Reg. UE, 27 aprile 2016, n. 679 (GDPR)(Regolamento generale sulla protezione dei dati), e della Dir. UE, 27 aprile 2016, n. 680, ove si afferma che la protezione delle persone fisiche, con riguardo al trattamento dei dati di carattere personale, è un diritto fondamentale.

Da ciò, si evince come l’avvento dell’intelligenza artificiale abbia portato con se vari problemi tra cui, il più importante, risulta essere la protezione della persona e del trattamento dei suoi dati personali; per tale motivo si è cercato di creare un unico sistema normativo di tutela della persona in materia di dati personali che si sono inseriti nel mondo digitale.

Il Consiglio d’Europa, il 28 gennaio 1981, ha emanato la Convenzione di Strasburgo n. 108, “Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati di carattere personale”. Tale provvedimento deriva dal fatto che “tenuto conto dell’intensificazione dei flussi internazionali di dati a carattere personale, oggetto di elaborazione automatica, è necessario garantire, ad ogni persona fisica, il rispetto dei suoi diritti e delle sue libertà fondamentali e in particolare il suo diritto alla vita privata”.

La c.d. Convenzione 108 risultava essere uno strumento normativo assolutamente decisivo per garantire una normativa unitaria per la tutela della persona umana, tuttavia sono state apportate modifiche al testo della Convenzione attraverso l’introduzione di un Protocollo ad hoc, per cui il 18 maggio del 2018, è stata presentata la c.d. convenzione 108+ , la quale ha come obiettivo, quello di migliorare e modernizzare la Convenzione del 1981, cercando di affrontare i problemi del singolo attraverso la tutela della vita privata, per cui il Protocollo, mira a facilitare e disciplinare, attraverso le norme giuridiche, il flusso transfrontaliero dei dati, esigenze più rigorose riguardanti i principi di proporzionalità e di minimizzazione dei dati, la liceità dell’elaborazione dei dati, l’ampliamento delle categorie di dati noti come “sensibili”, che comprenderanno d’ora in poi i dati genetici e biometrici, quelli indicanti l’origine etnica, l’obbligo di notificare la violazione dei dati, maggiore trasparenza relativa all’elaborazione dei dati e rafforzamento della responsabilità degli addetti al controllo dei dati.

Indubbiamente, la presenza dell’IA ha cambiato e continuerà a modificare profondamente gli assetti e le relazioni intersoggettive e intergenerazionali, incidendo, tra l’altro, sul mercato del lavoro e sulla distribuzione del reddito: l’intelligenza artificiale contiene infatti un “programma di rivoluzione” destinato a innovare ogni settore.

Tuttavia, il suo utilizzo, a livello mondiale è riservato solo ad una parte della popolazione con conseguente aumento delle diseguaglianze per coloro che sono esclusi ancora oggi dall’alfabetizzazione digitale o dall’accesso alle più moderne tecnologie.

L’IA pone una sfida reale, che va affrontata per prevenire diseguaglianze, lesioni delle libertà della persona e della privacy, e di ogni valore di rango costituzionale, lesioni che possono derivare da un uso illecito dell’IA, come ad esempio avviene con la manipolazione dell’opinione pubblica, o nelle comunità dei social networks (ad esempio Facebook, Twitter, YouTube, Instagram).

Per quanto concerne l’Italia, il 21 marzo 2018 l’Agenzia per l’Italia digitale ha presentato il Libro Bianco «L’intelligenza Artificiale a servizio del cittadino», una forma di soft law che analizza l’impatto dell’IA sulla nostra società e come queste tecnologie possano essere utilizzate dalla Pubblica amministrazione al fine di migliorarne i servizi .

Il Libro Bianco sostiene la necessità di un approccio secondo cui l’IA deve sempre porsi al servizio delle persone.

La Commissione sostiene pertanto un approccio normativo con il duplice obiettivo di promuovere l’adozione dell’IA e di affrontare i rischi associati a determinati utilizzi di questa nuova tecnologia. Lo scopo del presente libro bianco è definire le opzioni strategiche su come raggiungere tali obiettivi.

La Commissione si impegna a favorire i progressi scientifici, a preservare la leadership tecnologica dell’UE e a garantire che le nuove tecnologie siano al servizio di tutti i cittadini e ne migliorino la vita rispettandone i diritti.

Inoltre, è stato istituito «un Fondo per interventi volti a favorire lo sviluppo delle tecnologie e delle applicazioni di intelligenza artificiale con una dotazione di 15 milioni di euro per ciascuno degli anni 2019, 2020 e 2021. Il Fondo è destinato a finanziare: a) progetti di ricerca e innovazione da realizzare in Italia ad opera di soggetti pubblici e privati, anche esteri, nelle aree strategiche per lo sviluppo dell’intelligenza artificiale.

La strategia europea per i dati che caratterizza il Libro Bianco ha l’obiettivo di far sì che l’Europa diventi l’economia agile (basata sui dati) più attraente, sicura e dinamica del mondo, mettendo a sua disposizione i dati necessari a migliorare le decisioni e la vita di tutti i suoi cittadini.

In conclusione, è necessario discorrere della recente Proposta di Regolamento del Parlamento Europeo e del Consiglio, avanzata il 21 aprile 2021 che stabilisce regole armonizzate sull’intelligenza artificiale.

L’uso dell’intelligenza artificiale, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione dell’erogazione di servizi, può contribuire a conseguire risultati vantaggiosi dal punto di vista sociale e ambientale nonché fornire vantaggi competitivi fondamentali alle imprese e all’economia europea.

Tale azione è particolarmente necessaria in settori ad alto impatto, tra i quali figurano quelli dei cambiamenti climatici, dell’ambiente e della sanità, il settore pubblico, la finanza, la mobilità, gli affari interni e l’agricoltura.

Tuttavia gli stessi elementi e le stesse tecniche che alimentano i benefici socio-economici dell’IA possono altresì comportare nuovi rischi o conseguenze negative per le persone fisiche o la società.

La proposta valuta i rischi dell’Intelligenza Artificiale, con la finalità di salvaguardare i valori e i diritti fondamentali dell’UE e la sicurezza degli utenti.

In considerazione della velocità dei cambiamenti tecnologici e delle possibili sfide, l’UE si impegna a perseguire un approccio equilibrato.

In tale contesto politico, la Commissione presenta il quadro normativo proposto sull’intelligenza artificiale con i seguenti obiettivi specifici: assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati, siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione; assicurare la certezza del diritto per facilitare l’innovazione dell’IA; migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e facilitare lo sviluppo di un mercato unico per applicazioni di intelligenza artificiale lecite, sicure e affidabili nonché prevenire la frammentazione del mercato.

Al fine di conseguire tali obiettivi, la Proposta presenta un approccio normativo orizzontale all’IA equilibrato e proporzionato, che si limita ai requisiti minimi necessari per affrontare i rischi e i problemi ad essa collegati, senza limitare od ostacolare lo sviluppo tecnologico o altrimenti aumentare in modo sproporzionato il costo dell’immissione sul mercato di soluzioni di IA.

La Proposta definisce un quadro giuridico solido e flessibile, la sua natura orizzontale richiede un’assoluta coerenza con la normativa vigente dell’Unione applicabile ai settori nei quali i sistemi di IA ad alto rischio sono già utilizzati o saranno probabilmente utilizzati in un prossimo futuro.

È inoltre assicurata la coerenza con la Carta dei diritti fondamentali dell’Unione europea e il diritto derivato dell’UE in vigore in materia di protezione dei dati, tutela dei consumatori, non discriminazione e parità di genere.

La Proposta mira ad affrontare i rischi associati a determinati utilizzi dell’IA al fine di sviluppare un ecosistema di fiducia proponendo un quadro giuridico per un’IA affidabile. L’IA dovrebbe rappresentare uno strumento per le persone e un fattore positivo per la società, con il fine ultimo di migliorare il benessere degli esseri umani. Le regole per l’IA disponibili sul mercato dell’Unione o che comunque interessano le persone nell’Unione dovrebbero pertanto essere incentrate sulle persone, affinché queste ultime possano confidare nel fatto che la tecnologia sia usata in modo sicuro e conforme alla legge, anche in termini di rispetto dei diritti fondamentali.

Attraverso l’applicabilità diretta di un Regolamento, conformemente all’articolo 288 TFUE, si permetterà di ridurre la frammentazione giuridica e si andrà a facilitare lo sviluppo di un mercato unico per sistemi di IA leciti, sicuri e affidabili.

Tale obiettivo sarà conseguito introducendo una serie armonizzata di requisiti di base per quanto concerne i sistemi di IA classificati come ad alto rischio e di obblighi riguardanti fornitori e utenti di tali sistemi, migliorando la tutela dei diritti fondamentali e garantendo certezza del diritto tanto per gli operatori quanto per i consumatori.

Infine, la Proposta è il risultato di un’ampia consultazione di tutti i principali portatori di interessi, nel contesto della quale sono stati applicati i principi generali e le norme minime per la consultazione delle parti interessate da parte della Commissione.

Tale consultazione è stata rivolta a tutti i portatori di interessi coinvolti del settore pubblico e di quello privato, compresi governi, autorità locali, organizzazioni commerciali e non, parti sociali, esperti, accademici e cittadini. Dopo aver analizzato tutte le risposte pervenute, la Commissione ha pubblicato una sintesi dei risultati, così come le singole risposte, sul proprio sito web.

Una grande maggioranza dei portatori di interessi si è detta concorde in merito al fatto che esistano lacune legislative o che sia necessaria una normativa nuova.

Tuttavia diversi portatori di interessi hanno avvertito la Commissione di evitare duplicazioni, obblighi contrastanti e una regolamentazione eccessiva.

Sono pervenute numerose osservazioni nelle quali è stata sottolineata l’importanza di un quadro normativo proporzionato dal punto di vista tecnologico.

Per concludere, in una realtà come quella attuale che muta con costanza e rapidità, sono soprattutto i progressi scientifici e le innovazioni dell’intelligenza artificiale ad affermarsi con forza e a cambiare il volto della nostra società sotto il profilo etico, sociologico, economico e naturalmente giuridico. L’IA fa già parte della nostra vita privata, sociale, lavorativa, in quanto condiziona le nostre scelte e decisioni e anche se non è molto diffusa una piena consapevolezza e conoscenza del fenomeno che occorre promuovere, è necessario individuare una strategia di governance dei sistemi di intelligenza artificiale che risponda ad esigenze di affidabilità e sicurezza.

Tuttavia, ritengo che le macchine siano in grado di aumentare la qualità e la rapidità delle attività dell’uomo ma non sono in grado di riprodurre il complesso funzionamento della mente umana, non potranno mai avere le capacità umane che si traducono nell’agire con libero arbitrio e con coraggio.

Per cui, è necessario un quadro legislativo basato su regole uniformi al fine di evitare usi difformi dell’IA, tenendo sempre a mente il rispetto dei diritti e delle libertà fondamentali dell’uomo.

Al fine di conseguire tali obiettivi, la Proposta presenta un approccio normativo orizzontale all’IA equilibrato e proporzionato, che si limita ai requisiti minimi necessari per affrontare i rischi e i problemi ad essa collegati, senza limitare od ostacolare lo sviluppo tecnologico o altrimenti aumentare in modo sproporzionato il costo dell’immissione sul mercato di soluzioni di IA.

La Proposta definisce un quadro giuridico solido e flessibile, la sua natura orizzontale richiede un’assoluta coerenza con la normativa vigente dell’Unione applicabile ai settori nei quali i sistemi di IA ad alto rischio sono già utilizzati o saranno probabilmente utilizzati in un prossimo futuro.

È inoltre assicurata la coerenza con la Carta dei diritti fondamentali dell’Unione europea e il diritto derivato dell’UE in vigore in materia di protezione dei dati, tutela dei consumatori, non discriminazione e parità di genere.

La Proposta mira ad affrontare i rischi associati a determinati utilizzi dell’IA al fine di sviluppare un ecosistema di fiducia proponendo un quadro giuridico per un’IA affidabile. L’IA dovrebbe rappresentare uno strumento per le persone e un fattore positivo per la società, con il fine ultimo di migliorare il benessere degli esseri umani. Le regole per l’IA disponibili sul mercato dell’Unione o che comunque interessano le persone nell’Unione dovrebbero pertanto essere incentrate sulle persone, affinché queste ultime possano confidare nel fatto che la tecnologia sia usata in modo sicuro e conforme alla legge, anche in termini di rispetto dei diritti fondamentali.

Attraverso l’applicabilità diretta di un Regolamento, conformemente all’articolo 288 TFUE, si permetterà di ridurre la frammentazione giuridica e si andrà a facilitare lo sviluppo di un mercato unico per sistemi di IA leciti, sicuri e affidabili.

Tale obiettivo sarà conseguito introducendo una serie armonizzata di requisiti di base per quanto concerne i sistemi di IA classificati come ad alto rischio e di obblighi riguardanti fornitori e utenti di tali sistemi, migliorando la tutela dei diritti fondamentali e garantendo certezza del diritto tanto per gli operatori quanto per i consumatori.

Infine, la Proposta è il risultato di un’ampia consultazione di tutti i principali portatori di interessi, nel contesto della quale sono stati applicati i principi generali e le norme minime per la consultazione delle parti interessate da parte della Commissione.

Tale consultazione è stata rivolta a tutti i portatori di interessi coinvolti del settore pubblico e di quello privato, compresi governi, autorità locali, organizzazioni commerciali e non, parti sociali, esperti, accademici e cittadini. Dopo aver analizzato tutte le risposte pervenute, la Commissione ha pubblicato una sintesi dei risultati, così come le singole risposte, sul proprio sito web.

Una grande maggioranza dei portatori di interessi si è detta concorde in merito al fatto che esistano lacune legislative o che sia necessaria una normativa nuova.

Tuttavia diversi portatori di interessi hanno avvertito la Commissione di evitare duplicazioni, obblighi contrastanti e una regolamentazione eccessiva.

Sono pervenute numerose osservazioni nelle quali è stata sottolineata l’importanza di un quadro normativo proporzionato dal punto di vista tecnologico.

Per concludere, in una realtà come quella attuale che muta con costanza e rapidità, sono soprattutto i progressi scientifici e le innovazioni dell’intelligenza artificiale ad affermarsi con forza e a cambiare il volto della nostra società sotto il profilo etico, sociologico, economico e naturalmente giuridico. L’IA fa già parte della nostra vita privata, sociale, lavorativa, in quanto condiziona le nostre scelte e decisioni e anche se non è molto diffusa una piena consapevolezza e conoscenza del fenomeno che occorre promuovere, è necessario individuare una strategia di governance dei sistemi di intelligenza artificiale che risponda ad esigenze di affidabilità e sicurezza.

Tuttavia, ritengo che le macchine siano in grado di aumentare la qualità e la rapidità delle attività dell’uomo ma non sono in grado di riprodurre il complesso funzionamento della mente umana, non potranno mai avere le capacità umane che si traducono nell’agire con libero arbitrio e con coraggio.

Per cui, è necessario un quadro legislativo basato su regole uniformi al fine di evitare usi difformi dell’IA, tenendo sempre a mente il rispetto dei diritti e delle libertà fondamentali dell’uomo.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti