Il trattamento dei dati personali da parte delle nuove intelligenze artificiali

Il trattamento dei dati personali da parte delle nuove intelligenze artificiali

L’art 17 del Regolamento Generale sulla Protezione dei Dati (UE 2016/679) sancisce il diritto, per il soggetto interessato, di ottenere dal titolare del trattamento la cancellazione dei dati personali che lo riguardano senza ingiustificato ritardo e impone al titolare del trattamento di comunicare tale richiesta anche a chiunque sia venuto a conoscenza dei dati oggetto della richiesta. 

Questo diritto, inderogabile, potrebbe però risultare incompatibile con il funzionamento concreto delle modalità di apprendimento dei sistemi di Intelligenza Artificiale che, per funzionare correttamente, necessitano della conservazione di rilevanti volumi di dati per un tempo indefinito o, comunque, molto esteso e, talvolta, non consentono al titolare del trattamento di tenere traccia dell’utilizzazione di tali dati da parte dei soggetti coinvolti nella “catena del trattamento”. 

Le problematiche affrontate non sono le sole, relative al delicato rapporto tra norma e persona, e proprio per questo motivo sistemi di Intelligenza Artificiale presuppongono un approccio multidisciplinare, con il coinvolgimento di diversi ambiti del diritto, dalla proprietà intellettuale al diritto dei contratti, sino alla responsabilità civile e al diritto della concorrenza. 

I dati e le informazioni contenuti in questi database possono essere tutelati anche come opere di carattere creativo ai sensi della normativa sul diritto d’autore. 

Ci si chiede se la protezione dell’Intelligenza Artificiale, sia estensibile anche al contenuto autonomamente creato dall’Intelligenza Artificiale stessa. 

Si deve ricordare che il presupposto per la tutela creativa dell’opera deve essere proprio la sua originalità, ma non è certo che possa essere riconosciuto carattere creativo anche a quella parte del database frutto dell’elaborazione autonoma di un sistema di Intelligenza Artificiale. 

Per ovviare a ciò, potrà ipotizzarsi il ricorso a tutele contrattuali, per cercare di prevenire l’uso e l’abuso da parte di terzi dei dati contenuti all’interno dei database, ma anche di disciplinare i profili di responsabilità civile connessi all’uso stesso dei sistemi di Intelligenza Artificiale; proprio per questo motivo il quesito ricorrente è quello di sapere di chi è la responsabilità della raccolta e del trattamento dei dati. 

Partendo da questi quesiti, risulta che la problematica principale da risolvere, parlando di nuove tecnologie, è legata alla capacità dell’ordinamento giuridico di adattarsi all’evoluzione della società e alla conseguente necessità di scegliere se coniare nuove regole o continuare ad applicare quelle esistenti e, in questo secondo caso, anche con alcune forzature interpretative. 

Bisogna però partire da un dato certo cioè il progresso non può arrestarsi in attesa di un nuovo quadro legislativo e il vigente impianto normativo deve necessariamente dimostrarsi capace di fronteggiare le sfide dettate dall’innovazione tecnologica. 

Un obiettivo difficile ma non impossibile se le norme giuridiche vengono supportate da una specifica attività interpretativa e applicativa: cosa, questa, che responsabilizza tutti gli operatori del diritto. 

Una soluzione elaborata di recente porta alla c.d. di security impactassessment o ethical impact assessment: soluzioni che traggono chiara ispirazione dal data protection impact assessment del GDPR, ma che se ne differenziano per la capacità di coinvolgere attivamente tutti gli attori protagonisti dell’ideazione, distribuzione e fruizione dell’Intelligenza Artificiale. 

L’Unione Europea in particolare dovrà decidere se aspirare alla guida, facendosi promotrice di un modello regolamentare esportabile e compatibile con l’evoluzione dell’Intelligenza Artificiale; oppure, come già avvenuto proprio in ambito digitale, finirà per prendere atto dello sviluppo del mercato in altri continenti rinunciando, di conseguenza, a governare il cambiamento. 

Parte della critica giuridica, “afferma che l’intelligenza artificiale ha inoltre il limite di essere priva del giudizio che è proprio dell’intelligenza umana, essa non può possedere alcune di quelle che si definiscono “virtù cardinali”, infatti rimane impensabile definire l’intelligenza artificiale come saggia e giusta”. Ecco perché, l’intelligenza artificiale deve restare uno strumento sofisticato ma non altro; deve essere l’uomo a creare l’assunzione del rischio dell’insuccesso, anche attraverso una regolamentazione che preveda tali possibilità. 


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti