Profili civilistici dell’Intelligenza Artificiale

Profili civilistici dell’Intelligenza Artificiale

Sommario: 1. Premessa – 2. La definizione di intelligenza artificiale – 3. Profili giuridici problematici – 4. La soluzione adottata in Russia – 5. Le soluzioni proposte dalle Istituzioni Europee – 6. Il rapporto con il diritto d’autore – 7. Le soluzioni proposte in Italia riguardo la problematica relativa al diritto d’autore – 8. Osservazioni conclusive.

 

1.Premessa. La storia insegna che le evoluzioni tecnologiche hanno sempre comportato svariati risvolti in molteplici ambiti. Invero, un’innovazione tecnica, soprattutto nel momento in cui viene perfezionata e implementata, difficilmente rimane confinata esclusivamente al settore per cui era stata concepita in origine. Ciò è avvenuto anche per l’informatica e per i sistemi logici e matematici che ne sono alla base del funzionamento.

Uno dei temi maggiormente discussi al giorno d’oggi riguarda l’intelligenza artificiale, da taluni considerata una branca dell’informatica[1], perché basata sui medesimi processi logici e su simili procedure automatizzate, ma che ne espande le potenziali applicazioni ben oltre il tradizionale ambito d’utilizzo. In questo scritto affronteremo la problematica in relazione a vari aspetti ad essa afferenti: innanzitutto, si proverà a fornire, senza alcuna pretesa di esaustività, una definizione di intelligenza artificiale. In secondo luogo, verranno trattati gli aspetti giuridici maggiormente problematici relativi ai dispositivi basati sulla stessa, offrendo una panoramica delle soluzioni adottate in alcuni Stati. In seguito, si esamineranno gli utilizzi dell’intelligenza artificiale in Italia ad opera delle Forze dell’Ordine al fine di garantire la sicurezza interna del nostro Paese e delle varie Forze Armate a livello internazionale per tutelare la sicurezza esterna delle proprie nazioni. Infine, verranno passati in rassegna gli utilizzi dei sistemi basati sull’intelligenza artificiale volti a garantire una maggiore tutela del patrimonio artistico e culturale ed i principali progetti finalizzati alla loro implementazione.

2. La definizione di intelligenza artificiale. Il termine Intelligenza artificiale (sovente abbreviato in I.A. o in A.I.) indica “quei sistemi tecnologici che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi”[2]. La prerogativa dei suddetti sistemi è quella di adottare, per raggiungere gli obiettivi prefissati, algoritmi che tentano di riprodurre le modalità di pensiero proprie dell’essere umano. I dispositivi di I.A., in altre parole, cercano di risolvere i problemi che gli vengono posti allo stesso modo in cui lo farebbe un uomo.

Esistono svariate tipologie di sistemi di intelligenza artificiale, alcuni dei quali sono divenuti già da qualche anno di uso comune. Si parte da sistemi di I.A. molto semplici nel loro funzionamento, quali i diffusissimi generatori di sottotitoli o i filtri anti-spam delle caselle di posta elettronica, sino ad arrivare a sistemi particolarmente complessi e dalle funzionalità avveniristiche, ad esempio droni particolarmente avanzati o automobili a guida totalmente autonoma.

In via generale, i sistemi di intelligenza artificiale possono essere classificati in base alla tecnologia di funzionamento, al settore di utilizzo e/o alla loro incorporazione in dispositivi hardware.

I dispositivi di I.A., invero, possono consistere in software che agiscono esclusivamente nel mondo virtuale, quali assistenti vocali o sistemi di riconoscimento vocale e/o facciale, oppure essere incorporati all’interno di apparati hardware e agire sinergicamente ad essi, come robot automatici o applicazioni dell’Internet of Things.

Per di più, è possibile effettuare una distinzione in relazione alle modalità mediante le quali analizzano il proprio contesto di azione e assumono le conseguenti decisioni finalizzate al raggiungimento degli obiettivi prefissati. Alcuni sistemi di I.A. utilizzano un sistema di “reti neurali artificiali”, cioè un modello computazionale matematico composto da “neuroni” artificiali (le informazioni), che si relazionano tra di loro tentando di riprodurre le modalità di scambio di informazioni che avvengono in una rete biologica naturale. In estrema sintesi, un neurone naturale è composto da due parti, sinapsi e dendriti. I dendriti sono le estensioni del neurone che lo connettono ad altri neuroni per formare una rete neurale, mentre le sinapsi sono delle porte di accesso che si connettono ai dendriti provenienti da altri neuroni. Attraverso queste connessioni vengono trasmesse sotto forma di impulsi elettrici le informazioni che il nostro cervello elabora. Un neurone riceve, in questo modo l’informazione da altri neuroni, la processa e la rilascia a sua volta ad altri neuroni ancora. Al fine di elaborare un’informazione compiuta, il neurone deve, pertanto, generare un qualche genere di output che si basi sugli input che si accumulano. Di conseguenza, il neurone integra gli impulsi che riceve e, quando questa integrazione eccede un certo limite, emette a sua volta un impulso. Ovviamente, un neurone artificiale non è un robot né una struttura biologica, ma solamente un tipo di calcolo utilizzato per integrare algebricamente un certo numero di input, e produce solamente un singolo output numerico, equivalente alla somma pesata degli input[3]. Nel suddetto contesto, gli input sono gli elementi descrittivi di una qualche problematica che si intende sottoporre al dispositivo. L’output, invece, consiste in una assegnazione di classe, ossia nell’ricondurre l’input ad una categoria predefinita di soluzione o di classificazione, dopo aver processato l’informazione. Al pari di quelli presenti nel nostro cervello, i neuroni artificiali sono collegati l’uno con l’altro. Tale collegamento tra neuroni artificiali si sostanzia nell’esecuzione simultanea ed in parallelo di calcoli singoli. In conclusione, una Rete Neurale artificiale è una complessa tecnica logico-statistica che consente di associare una spiegazione (output) ad una descrizione (input), mediante una procedura di trattamento automatico e simultaneo delle informazioni. Altre tecnologie di intelligenza artificiale, pur essendo basate su meccanismi di funzionamento meno evoluti rispetto alle reti neurali artificiali, adoperano, invece, algoritmi[4] di tipo “euristico”. Viene definito di tipo euristico un algoritmo che, basandosi sull’analisi delle circostanze contingenti e sul raffronto di esse con informazioni e procedure archiviate all’interno del dispositivo, garantisce di restituire una soluzione “accettabile” ed in brevissimo tempo al problema postogli, a differenza degli algoritmi “deterministici” che restituiscono una soluzione quasi certa ed ottimale ma che, in caso di problemi di particolare complessità, potrebbero impiegare moltissimo tempo nel farlo e che, comunque, presentano un margine d’errore. Il compito del giurista, in tale ambito, può essere quello di intervenire per porre rimedio agli errori dei sistemi di I.A., nel caso di utilizzo degli stessi nella risoluzione di problematiche strettamente giuridico (es. utilizzo di sistemi tecnologici per l’emanazione e redazione di atti amministrativi) ed elaborare criteri generali di risoluzioni delle controversie afferenti l’uso dei sistemi di Intelligenza Artificiale.

La maggior parte delle tecnologie di I.A., essendo basate su un’interazione di informazioni presenti in un dispositivo, necessitano di dati al fine di migliorare le proprie prestazioni, e una volta raggiunto un elevato livello di prestazioni potranno contribuire a migliorare ed automatizzare i processi decisionali e di problem-solving in un determinato ambito. Stante la notevole implementazione delle tecnologie finalizzate all’archiviazione ed alla trasmissione dei dati che si è avuta negli ultimi anni, anche le tecnologie di intelligenza artificiale si sono sviluppate in maniera esponenziale[5].

Tale diffusione e miglioramento dei sistemi di I.A., se da un lato ha già portato e continuerà a portare innumerevoli vantaggi alla società umana, quali la velocizzazione dei processi decisionali, la razionalizzazione di alcune fasi dei processi produttivi industriali, il miglioramento dei servizi di emergenza e delle diagnosi in ambito sanitario, dall’altro pone tutta una serie di interrogativi e di problematiche in ambito giuridico, economico, scientifico ed etico.

3.Profili giuridici problematici. Una delle questioni maggiormente dibattute riguardanti l’intelligenza artificiale, implicante al contempo risvolti attinenti all’etica ed al diritto, è quella relativa alla responsabilità (in particolare quella per danni a cose e/o persone) ed all’eventuale riconoscimento di una personalità giuridica ai sistemi intelligenti.

Infatti, secondo taluni operatori del settore le legislazioni nazionali e sovranazionali dovrebbero oramai prevedere il riconoscimento di profili responsabilità in capo ai sistemi intelligenti e, nell’ambito del diritto d’autore, l’attribuzione agli stessi di una vera e propria “soggettività giuridica”[6]. Tuttavia tali prospettive vengono generalmente respinte dalla dottrina e dai rappresentanti delle Istituzioni, in quanto ritenute innaturali e foriere di notevoli rischi dal punto di vista etico e morale.

Per quanto concerne la prima questione relativa all’imputabilità in sede civile e/o penale dei sistemi intelligenti per danni cagionati a persone o cose, i sostenitori di tale proposta affermano che dovrebbe essere estesa ai dispositivi di I.A. la responsabilità giuridica sulla scorta di quanto avviene per le persone giuridiche nel diritto societario. In particolare, il rendere imputabili i sistemi intelligenti, servirebbe a limitare la responsabilità di coloro che li hanno sviluppati o che li adoperano, proprio come avviene nell’ambito del diritto commerciale per le società a responsabilità limitata. Per di più, ad opinione di vari sostenitori della teoria “causalista” del reato, secondo cui non sono richiesti elevati requisiti di volontà per controllare un comportamento, i robot dotati di un apparato fisico sarebbero imputabili in sede penale, in quanto loro “agiscono”, nel senso che pongono in essere un movimento corporeo voluto (perché frutto dell’esecuzione delle specifiche di programmazione e quindi pienamente previsto).  A costoro rispondono coloro che sostengono la più moderna teoria “finalistica” del reato, per la quale l’atto umano è differenziato da tutti gli altri eventi naturali perché esprime una volontà particolarmente intenzionale e cosciente (una sorta di contenuto ulteriore del movimento corporeo rispetto al mero atto fisico in sé), che i dispositivi artificiali non posseggono[7]. Alcuni studiosi del settore propongono addirittura l’idea di creare in alcuni casi, come quelli dei taxi a guida automatica, delle società ad hoc, delle quali conferire alcune o tutte le quote stesso al sistema intelligente[8], proposta che ovviamente pone ulteriori interrogativi in merito alla possibilità di autorizzare un sistema intelligente a possedere delle proprietà. Taluni studiosi hanno anche ipotizzato, nel caso di dispositivi di I.A. particolarmente avanzati, di paragonare i processi decisionali dei robot a quelli degli esseri umani, in quanto i sistemi intelligenti maggiormente avanzati non si limiterebbero ad eseguire le istruzioni impartite dal programmatore ma elaborerebbero autonomamente le informazioni ricevute dall’ambiente circostanze al fine di assumere un determinato comportamento. Da ciò conseguirebbe una modifica dello statuto ontologico delle macchine, in quanto esse passerebbero da oggetti giuridici a soggetti di diritto, con conseguente imputabilità. Tuttavia, a coloro che propugnano tale visione viene obiettato che ciò che contraddistingue gli esseri umani è la coscienza di sé stessi e della propria esistenza, che nei robot manca in quanto sono esseri artificiali privi di emozioni e sentimenti. Inoltre, pur volendo estendere l’imputabilità, specialmente quella in sede penale, a dispositivi artificiali si pone l’interrogativo di come possa essere possibile sanzionare un robot. Difatti, qualsiasi tipo di sanzione si adottasse nei confronti di un sistema di I.A., compresa la distruzione o la riprogrammazione, a ben vedere, ricadrebbe sul proprietario o sul programmatore dello stesso, non essendo paragonabile l’esistenza dei robot a quella degli essere umani: di certo la distruzione di un dispositivo artificiale non assolverebbe a quella funzione di prevenzione generale nei confronti degli altri sistemi che, invece, ascrivibile all’irrogazione una dura condanna penale tra gli esseri umani. Invero, anche lo strumento della responsabilità delle persone giuridiche, al quale dovrebbe ispirarsi il modello di responsabilità dei robot, in fin dei conti, è finalizzato a sanzionare le persone fisiche (azionisti e/o amministratori) della società cui viene imputata la violazione di legge.

4. La soluzione adottata in Russia. In molti stati extraeuropei (quali Stati Uniti d’America, Cina, India, Corea del Sud) si sta dibattendo su come declinare tale problematica nei rispettivi ordinamenti giuridici, in modo tale da riconoscere l’innovazione portata dai sistemi di I.A. senza, tuttavia, giungere a provvedimenti legislativi azzardati ed ambigui dal punto di vista etico.

Una soluzione, probabilmente non estremamente raffinata dal punto di vista tecnico e certamente suscettibile di miglioramenti, ma efficace dal punto di vista dell’applicazione pratica è quella adottata dalla Federazione Russa che ha esteso ai sistemi di I.A. la norma di cui all’articolo 1064 del proprio codice civile relativa alla responsabilità degli animali[9], estendendo ai sistemi di intelligenza artificiale il cosiddetto “modello zoologico”. Anche gli esseri animali, i mammiferi in particolare, infatti, sono esseri intelligenti ed in parte coscienti delle proprie azioni, tuttavia non per questo i proprietari vengono esonerati dai danni cagionati dagli stessi, segnatamente quando sono prevedibili e/o evitabili. Una simile norma, potenzialmente estensibile ai dispositivi di I.A. è presente anche nell’ordinamento giuridico italiano. Difatti, l’art. 2052 c.c. prevede che il proprietario di un animale o colui che lo ha in uso per il tempo in cui se ne serve è responsabile dei danni dallo stesso cagionati, anche se l’animale è fuggito o è stato smarrito, salvo che venga provato il caso fortuito.

5. Le soluzioni proposte dalle Istituzioni Europee. Le istituzioni dell’Unione Europea, già da qualche anno a questa parte, stante la progressiva diffusione dei sistemi di I.A. negli Stati membri, si stanno occupando della questione, giungendo tuttavia, fino ad ora ad opinioni contrapposte tra loro.

Difatti, il Parlamento Europeo ha emanato in data 16 febbraio 2017 una serie di “Raccomandazioni alla commissione concernenti norme di diritto civile sulla robotica”.

In tale documento di proposta legislativa, la tematica di diritto sostanziale sulla quale si insiste maggiormente è quella relativa alla creazione di un vero e proprio status giuridico per i robot, con la prospettiva di una futura classificazione degli stessi come “persone elettroniche” responsabili delle proprie azioni. Inoltre, viene sancita la necessità di istituire una nozione unitaria e condivisa di robot e di intelligenza artificiale.

Dal punto di vista prettamente regolamentare, nei principi generali della risoluzione si fa riferimento alla Direttiva sulla responsabilità per danno dei prodotti difettosi (Direttiva 85/374/CEE del 25 luglio 1985), interrogandosi tuttavia riguardo i limiti intrinseci del citato provvedimento, dato che i robot sono capaci di apprendimento e di adattamento. Afferma, infatti, la risoluzione Parlamento Europeo del 16 febbraio 2017 che “per quanto riguarda la responsabilità extracontrattuale, la Direttiva 85/374/CEE riguarda solamente i danni causati dai difetti di fabbricazione di un robot ed a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, il difetto del prodotto ed il nesso di causalità tra il difetto ed il danno e che pertanto la responsabilità oggettiva o la responsabilità senza colpa potrebbero non essere sufficienti; e che nonostante l’ambito di applicazione della Direttiva 85/374/CEE, l’attuale quadro giuridico non sarebbe sufficiente a coprire i danni causati dalla nuova generazione di robot, in quanto questi possono essere dotati di capacità di apprendimento e di adattamento che implicano un certo grado di imprevedibilità del loro comportamento, dato che imparerebbero in modo autonomo, in base alle esperienze diverse di ciascuno ed interagirebbero con l’ambiente in modo unico ed imprevedibile”[10].

Un’altra questione affrontata all’interno della risoluzione in esame riguarda il fatto che il tradizionale criterio di imputabilità è collegato ad una condotta da parte del soggetto agente, e rimane dubbio il fatto che un’intelligenza artificiale possa porre in essere un’autonoma condotta nel mondo fisico.

A tal riguardo, nel prosieguo del citato provvedimento vengono richiamati i principi tradizionali della responsabilità del produttore, affermando, però, che essi devono adeguarsi all’autonomia decisionale che assumono i sistemi di I.A. e al fatto che essi possono riprogrammati da vari soggetti e in un momento successivo a quello della loro fabbricazione, circostanza che potrebbe coinvolgere, nella determinazione delle responsabilità, soggetti diversi dal solo produttore, quali i programmatori o coloro che hanno realizzato o impostato gli algoritmi decisionali, come avviene nell’esperienza giuridica statunitense[11].

Un’altra soluzione prospettabile in tale ambito è quella di adottare quale criterio di imputazione della responsabilità la culpa in vigilando di colui che sta adoperando il sistema intelligente, nel momento in cui si accorge che quest’ultimo sta adottando decisione sbagliate e/o potenzialmente dannose.

E dato che non sembra ancora ipotizzabile affermare che i robot siano soggetti di diritto, risulta maggiormente coerente con gli orientamenti della Western Legal Tradition, categorizzare i robot quale oggetti, ossia proprietà di chi li possiede. Infatti, anche gli oggetti più evoluti dal punto di vista sensoriale non presentano ancora caratteri umani che permettono di derogare a tale classificazione[12].

Il parlamento europeo formula, poi, un’altra serie di proposte alla Commissione.

In primo luogo, si suggerisce che in caso di danni causati da robot il legittimato passivo sia responsabile in base al proprio grado di conoscenza del sistema ed alla quantità di istruzioni dal lui impartite all’I.A.

Oltre a ciò, viene proposto anche di rendere obbligatorio per produttori e proprietari di sistemi di I.A. la stipula di una polizza assicurativa, finalizzata proprio a coprire gli eventuali danni causati dai loro robot.

Per di più, si prospetta anche l’ipotesi di rendere possibile per i produttori, programmatori, proprietari ed utenti di automi intelligenti la costituzione di un fondo di risarcimento o la sottoscrizione di un’assicurazione collettiva in caso di danni arrecati da robot e di istituire un fondo pubblico di garanzia in caso di danni cagionati da dispositivi non assicurati.

Viene poi caldeggiata, come detto in precedenza, “L’istituzione di uno status giuridico specifico per i robot nel lungo termine (…) in modo tale che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualunque danno da loro causato”.

Tale proposta appare, però, estremamente problematica, per una serie di ragioni.

Innanzitutto, i robot dovrebbero essere dotati di autonomia patrimoniale perfetta che li renda in grado di assolvere ad eventuali obbligazioni pecuniarie ed andrebbero approntate una serie di procedure, anche di carattere coercitivo, per il risarcimento dei danni.

Inoltre, una simile scelta potrebbe incentivare una deresponsabilizzazione di ideatori e produttori di I.A., i quali, agendo su scala globale e sfruttando le differenze tra i vari ordinamenti giuridici, potrebbero non rispondere mai delle loro scelte sbagliate[13].

Peraltro, il 31 maggio 2017 il Comitato economico e sociale europeo (CESE) nel parere C-238, pubblicato il 31 agosto 2017, ha espresso una serie di perplessità riguardo la proposta avanzata dal Parlamento europeo, in particolare per quanto concerne l’attribuzione di soggettività giuridica ai robot intelligenti.

In particolare, per ciò che concerne il profilo della responsabilità dei sistemi di I.A. nei casi in cui a causare un danno siano sistemi che apprendono autonomamente e continuano ad apprendere anche dopo la loro messa in funzione.

Il CESE esprime un’opinione contraria all’introduzione di una forma di personalità giuridica per i robot o per l’I.A. (o i sistemi di I.A.), proposta dal Parlamento europeo nelle raccomandazioni concernenti norme di diritto civile sulla robotica, in cui veniva formulata la proposta di introdurre il concetto di “personalità elettronica”, per i robot in modo tale che essi possano essere ritenuti responsabili degli eventuali danni causati, in quanto essa comporterebbe un rischio di azzardo morale inaccettabile. Difatti, alle norme in materia di responsabilità civile viene generalmente attribuita una ratio preventiva di correzione del comportamento, la quale potrebbe venir meno ogni volta che la responsabilità civile non ricade più perché viene trasferita al robot (o al sistema di I.A.). Inoltre, vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo. In questo contesto, il confronto con la responsabilità limitata delle società viene ritenuto fuori luogo in quanto, nel diritto societario, è sempre la persona fisica ad essere responsabile in ultima istanza[14].

Si deve, poi, considerare anche il fatto che l’imprevedibilità dei comportamenti di un sistema di I.A. è essa stessa prevedibile e proprio per tale ragione programmatori ed utilizzatori devono prestare maggiore cautela nell’approntamento e nell’utilizzo di questa tipologia di dispositivi. Di conseguenza, sarebbe opportuno che in caso di comportamenti negligenti o imprudenti essi vengano chiamati a rispondere dei danni che eventualmente ne sono conseguiti.

Infine, allo stato delle conoscenze attuali è condivisibile l’opinione secondo cui l’apprendimento ed i processi decisionali di un sistema di intelligenza artificiale non possono comunque essere equiparati a quelle umane poiché sono basati su algoritmi matematici ed alcune questioni che l’intelligenza umana riesce a concepire e ad affrontare non possono essere espresse e/o risolte sotto forma di algoritmo[15].

6. Il rapporto con il diritto d’autore. Un’altra questione estremamente complessa è quella relativa al rapporto tra intelligenza artificiale e diritto di copyright.

Infatti, secondo taluni essendo i sistemi di I.A. dotati della capacità di elaborare autonomamente le proprie decisioni, in determinati ambiti dovrebbero essere considerate, quantomeno sotto il profilo morale come gli effettivi autori di, ad esempio, un’opera artistica. Essi, invero, a differenza dei tradizionali programmi di elaborazione informatica non si configurerebbero più come meri strumenti di supporto al processo creativo, bensì quali autori o co-autori delle opere.

Difatti, ad opinione di parte della dottrina, esaminando la definizione di proprietà intellettuale fornita dall’Organizzazione mondiale della proprietà intellettuale essa si riferisce “alle creazioni della mente”, senza specificare che la mente debba essere necessariamente umana.

Tuttavia, tale impostazione non viene condivisa dalla quasi totalità degli Stati occidentali.

Difatti, negli Stati Uniti d’America l’Ufficio del copyright ha esplicitamente dichiarato che “registrerà un’opera attribuendone la paternità a condizione che l’opera sia creata da un essere umano”[16]. Anche vari tribunali federali hanno ribadito tale orientamento, escludendo addirittura anche le persone giuridiche dallo status di inventori perché “le persone concepiscono non le aziende”. In Europa, la Corte di Giustizia dell’Unione Europea (CGUE) ha più volte dichiarato, in particolare nella sua fondamentale decisione C-5/08 “Infopaq” che il copyright si applica esclusivamente alle opere originali e tale originalità deve riflettere la creazione intellettuale dell’autore.

In ogni caso, sulla base di tali orientamenti risulta evidente che se un’opera originale deve riflettere la personalità del proprio autore, è indispensabile la presenza di un creatore umano affinché possa applicarsi la normativa sul copyright[17], dato che i sistemi di Intelligenza Artificiale non possiedono la capacità di provare emozioni e sentimenti.

Una possibile soluzione potrebbe essere quella di considerare quale autore di un’opera generata da (o tramite) dispositivi I.A. l’inventore o l’utente dello stesso (o considerarlo un lavoro derivato).

7. Le soluzioni proposte in Italia riguardo la problematica relativa al diritto d’autore. Per quanto concerne l’esperienza italiana, vi sono opinioni divergenti. Tuttavia, molti criticano l’affermazione contenuta nella risoluzione del Parlamento Europeo che invita la Commissione ad elaborare criteri per definire una “creazione intellettuale propria” da parte del sistema I.A., in quanto tale modifica legislativa si porrebbe in netto contrasto con il nostro ordinamento giuridico (artt. 6 e ss., l. 633/41), secondo cui l’autore può essere solo un essere umano in quanto l’opera costituisce un’estrinsecazione del lavoro intellettuale[18].

Inoltre, secondo tale orientamento la soluzione di costituire un soggetto elettronico al quale sono imputabili i diritti d’autore, in quanto capace di effettuare molte decisioni senza l’intervento umano, risulta essere astrattamente condivisibile sul piano del diritto morale d’autore, ma appare difficilmente praticabile sul piano dei diritti patrimoniali sull’opera, non essendo possibile che il soggetto elettronico percepisca i ricavati dello sfruttamento di una propria creazione.

In conclusione, risulta quindi essere auspicabile che il legislatore, preferibilmente quello comunitario, in modo tale da uniformare la disciplina della materia tra i vari Stati, apporti modifiche normative finalizzate a disciplinare questo nuovo tipo di situazione giuridica e volte, inoltre, a consentire di imputare ad un soggetto giuridico “tradizionale”, (persona fisica o giuridica) i diritti economici e, preferibilmente, morali derivanti da un’opera dell’ingegno creata da un sistema di intelligenza artificiale[19].

8. Osservazioni conclusive. L’analisi effettuata delle principali questioni giuridiche connesse allo sviluppo dell’Intelligenza Artificiale consente di comprendere quanto tale tematica si delicata e necessiti di una crescente attenzione da parte dei legislatori nazionali e delle Istituzioni sovranazionali. Il settore dei dispositivi I.A. è destinato a crescere in futuro e le tecnologie che ne consentono il funzionamento sono in costante evoluzione. Per tale ragione, è assolutamente necessaria una costante opera di studio e di aggiornamento legislativo. Infatti, per il grande utilizzo di tali sistemi che si riscontra in svariati settori e su molti luoghi di lavoro l’Intelligenza Artificiale avrà ripercussioni sullo stile di vita di moltissime persone. Di conseguenza, è necessaria una regolazione giuridica chiara e tempestiva delle fattispecie e delle problematiche che possono riconnettersi all’implementazione dell’Intelligenza Artificiale. Invero, se ben delineata, una cornice legislativa chiara ed esaustiva può agevolare, anziché limitare, uno sviluppo efficace e produttivo dei sistemi di I.A. Inoltre, risulterà necessaria da parte delle Istituzione preposte, una costante opera di studio e di aggiornamento relativamente alle evoluzioni tecnologiche in atto, in modo tale da evitare che le norme di riferimento risultino obsolete rispetto alle tecnologie effettivamente disponibili. Infine, dato che una qualsiasi invenzione tecnologica e per sua natura “neutrale” ed i risvolti positivi o negativi che può avere dipendono dall’utilizzo che ne viene fatto da parte dell’uomo, risulterebbe opportuno informare e sensibilizzare l’opinione pubblica riguardo l’Intelligenza Artificiale, i possibili pericoli connessi ad essa e le modalità di uso e di sviluppo etiche che è possibile adottare.

 

 

 


[1]Sistemi esperti (voce), in http://www.treccani.it/enciclopedia/sistemi-esperti_%28enciclopedia-italiana%29/ (ultima consultazione 10 febbraio 2019).
[2]Cfr. Comunicazione della Commissione Europea al Parlamento Europeo, al Consiglio, Al Comitato economico e sociale europeo ed al Comitato delle Regioni, L’intelligenza artificiale per l’Europa, del 25 aprile 2018, reperibile all’ indirizzo web https://ec.europa.eu/transparency/regdoc/rep/1/2018/IT/COM-2018-237-F1-IT-MAIN-PART-1.PDF (ultima consultazione 10 febbraio 2019).
[3] J.A. BARCELÓ, L’Intelligenza Artificiale in archeologia, in Atti del convegno ENEA Winter school intelligenza artificiale nei beni culturali, Milano, 2007, p. 142.
[4] In informatica, con il termine algoritmo viene definito il procedimento che consente la risoluzione di specifici problemi mediante l’applicazione di una sequenza finita di precise istruzioni che, a loro volta, devono essere interpretate ed eseguite fino alla loro conclusione seguendo un ben preciso ordine, così in http://www.andreaminini.com/informatica/algoritmo/ (ultima consultazione 10 febbraio 2019).
[5] F. SARZANA DI S. IPPOLITO; M. NICOTRA, Diritto della Blockchain,Intelligenza Artificiale ed Internet of Things, Ipsoa editore, 2018, p. 194.
[6] Ex plurimus A.TOMASI, Possiamo installare valori etici nelle intelligenze artificiali?, in  https://www.weca.it/rubriche/possiamo-installare-valori-etici-nelle-intelligenze-artificiali / (ultima consultazione 10 febbraio 2019).
[7] M.B. MAGRO, I robot hanno capacità criminale?, in AA.VV, Cybercrime, UTET giuridica editore, 2019, p. 392.
[8] J. KAPLAN, Intelligenza artificiale: guida al prossimo futuro, LUISS University Press, 2017, p. 304.
[9] U. PAGALLO, The laws of robots. Crimes, Contracts and torts, Springer, 2013, p. 36.
[10] Cfr. Punti AI ed AH, Norme di diritto civile sulla robotica, Risoluzione del Parlamento europeo del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti le norme di diritto civile sulla robotica (2015/2013(INL)), reperibile all’indirizzo web  http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.html (ultima consultazione 11 febbraio 2019).
[11]P. ASARO, The liability problem for autonomous artificial agents, AAAI Symposium on ethical and moral considerations in Non-Human Agents, Stanford University, 2016, p. 191.
[12] F. SARZANA DI S. IPPOLITO, M. NICOTRA, Diritto della Blockchain, Intelligenza Artificiale ed Internet of Things, op. cit., p. 206.
[13] S. TOFFOLETTO, Internet Of Things e Intelligenza artificiale: le nuove frontiere della responsabilità civile e del risarcimento, in http://www.questionegiustizia.it/articolo/iot-e-intelligenza-artificiale-le-nuove-frontiere-della-responsabilita-civile-e-del-risarcimento_13-06-2018.php (ultima consultazione 11 febbraio 2019).
[14]Cfr. Parere d’iniziativa numero C-288/2017 del Comitato economico e sociale europeo, L’intelligenza artificiale – Le ricadute dell’IA sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società, in https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52016IE5369 (ultima consultazione 12 febbraio 2019).
[15] S. IANNACCONE, Matematica, c’è un problema impossibile persino per l’ Intelligenza Artificiale , https://www.repubblica.it/scienze/2019/01/16/news/matematica_c_e_un_problema_impossibile_da_risolvere_persino_per_l_intelligenza_artificiale-216623687/ (ultima consultazione 12  febbraio  2019).
[16] U.S. COPYRIGHT OFFICE, The Compendium of U.S. copyright office practices, 3d ed., 2014, §306, reperibile su https://www.federalregister.gov/documents/2014/12/31/2014-30415/the-compendium-of-us-copyright-office-practices (ultima consultazione 12 febbraio 2019).
[17] A. GUADAMUZ, Artificial Intelligence and copyright, WIPO Magazine, 5/2017, p. 18.
[18] L. ATTOLICO, Per l’intelligenza artificiale il “nodo” del diritto d’autore, https://www.ilsole24ore.com/art/norme-e-tributi/2017-03-30/per-l-intelligenza-artificiale-nodo-diritto-d-autore-171013.shtml?uuid=AE2ASYw (ultima consultazione 12  febbraio 2019) .
[19] In questo senso, L. ATTOLICO, Profili giuridici delle opere dell’ingegno create da intelligenze artificiali, in https://www.nctm.it/news/articoli/profili-giuridici-delle-opere-dellingegno-create-da-intelligenze-artificia-li (ultima consultazione 12 febbraio 2019); M. IASELLI, Robot con intelligenza artificiale, verso una soggettività giuridica?, in https://www.altalex.com/documents/news/2017/02/21/robot-con-intelligenza-artificiale-soggettivita-giuridica (ultima consultazione 12  febbraio 2019).

Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News
The following two tabs change content below.

Dott. Vittorio Guarriello

Nato a Caserta il 09.11.1995. Ha frequentato la Scuola Militare ”Nunziatella”. Si è laureato in anticipo rispetto alla durata normale del corso di studi il 29.03.2019 presso l´Università degli Studi della Campania ”Luigi Vanvitelli”, discutendo una tesi in Diritto Civile dal titolo ”I contratti bancari monofirma, una questione di invalidità contrattuale”. Ha espletato con esito positivo il Tirocinio in affiancamento ai magistrati ex art.73 D.L. 69/2013 presso il Tribunale Ordinario di Napoli Nord. In data 09.11.2021 ha conseguito l’abilitazione all’esercizio della professione di Avvocato presso la Corte di Appello di Napoli al primo tentativo e riportando il massimo della votazione nella seconda prova orale. Collabora con la Cattedra di Informatica del Diritto dell´Università degli Studi della Campania ”Luigi Vanvitelli”, sotto la guida del Prof. Avv. Emilio Tucci.

Articoli inerenti