Robot con intelligenza artificiale, verso una soggettività giuridica? 

Alla luce della recente approvazione della Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica diventa sempre più attuale e preoccupante il problema connesso all’individuazione di norme che disciplinino l’attività ed in particolar modo la responsabilità dei robot nel nostro ordinamento.  L’umanità, ormai, si trova sulla soglia di un’era nella quale robot, bot, androidie altre manifestazioni dell’intelligenza artificiale (AI) sembrano sul punto dilanciare una nuova rivoluzione industriale, suscettibile di toccare tutti gli stratisociali, rendendo imprescindibile che la legislazione ne consideri tutte leimplicazioni.  Tra il 2010 e il 2014 la crescita media delle vendite di robot era stabile al 17% annuo e che nel 2014 è aumentata al 29%, il più considerevole aumento annuo mai registrato, e che i fornitori di parti motrici e l’industria elettrico-elettronica sono i principali propulsori della crescita; che le richieste di brevetto per le tecnologie robotiche sono triplicate nel corso dell’ultimo decennio.  La robotica e l’intelligenza artificiale promettono di portare benefici in termini di efficienza e di risparmio economico non solo in ambito manifatturiero e  commerciale, ma anche in settori quali i trasporti, l’assistenza medica,  l’educazione e l’agricoltura, consentendo di evitare di esporre esseri umani a  condizioni pericolose, come nel caso della pulizia di siti contaminati da sostanze tossiche.  Naturalmente gli aspetti giuridico-normativi dovranno essere trattati in
maniera approfondita, disciplinando le interazioni fra umani e umanoidi sia  nella sfera privata che in quella pubblica. Sarà necessario analizzare e risolvere diverse problematiche:

 1. di chi è la responsabilità in caso di danni o di infortuni causati da robot?

  1. Come proteggere la privacy degli individui?

  2. Come rendere disponibile ed accessibile a tutti l’intelligenza e la capacità
    sviluppata da robot al servizio dell’uomo?

  3. Che tipologia di assicurazione prevedere per i robot?

Il problema della responsabilità in caso di danni arrecati da robot o umanoidi può sembrare troppo avveniristico ma in realtà non è così perché già si stanno  producendo robot che presto verranno avviati non solo nel mondo produttivo  ma anche in quello sociale, si pensi ad esempio al recente prototipo di robot  per il condominio (una sorta di portinaio hi-tech) che è stato recentemente  presentato a Pisa, nel convegno sulle tecnologie al servizio dell’ambiente in cui  si vive (Ambient Assisted Living), organizzato dalla Scuola Superiore Sant’ Anna. La Co-Robotics, una spinoff della Scuola Superiore Sant’Anna ha  realizzato anche il prototipo del robot domestico, una sorta di badante dall’ aspetto molto simile a quello dell’altro. Entrambi sono nati dal progetto Robot  Era, del valore complessivo di 8,7 milioni di euro.  Tutti e due i robot hanno un busto che può essere modificato a seconda della  funzione, parlano e obbediscono ai comandi vocali. In più il robot domestico ha  un braccio e una mano con tre dita. Non ha il cravattino, ma può comunque essere personalizzato, e ha un maniglione che può aiutare chi ha difficoltà a  camminare. Sa inoltre accorgersi se la persona che è in casa è caduta e ha  bisogno di aiuto e, infine, sa intrattenere con giochi cognitivi.  Entrambi i robot, che non hanno ancora un nome, sono fatti di un materiale  economico e leggero: la plastica dei cruscotti delle auto. Un elemento, questo,  che facilita la produzione su scala industriale e l’obiettivo è arrivare a un costo  compreso fra 5.000 e 20.000 euro, per i modelli più complessi. Hanno dato  risultati positivi, inoltre, i primi test condotti in strutture di ricovero fra Italia e  Svezia, come la casa di cura San Lorenzo di Firenze, l’ospedale Inrca di Ancona e una clinica di Orebro. In strutture come queste i robot potrebbero essere  utilizzati per trasportare lenzuola e coperte, consegnare il cibo ai pazienti,  aiutare gli infermieri a distribuire i farmaci, sostenere le persone che non surclassare l’uomo in quanto a facoltà intellettive. Una sorta di registro traccerebbe l’identità di tutti i lavoratori artificiali in Europa, con un obbligo di assicurazione simile a quello previsto per le auto.  Lo sviluppo della robotica e dell’intelligenza artificiale possono portare a far sì che gran parte del lavoro attualmente svolto dagli esseri umani sia svolto da robot, sollevando preoccupazioni non solo sul futuro dell’occupazione, ma anche in termini di responsabilità.  Difatti per quanto riguarda la sicurezza fisica, ad esempio quando la  codificazione di un robot si rivela fallibile, e per le potenziali conseguenze di un difetto sistemico o del pirataggio di robot intercollegati o di sistemi robotici, inun momento in cui sono in uso o sul punto di entrare in uso applicazioni sempre più autonome, che si tratti di automobili, di droni o di robot impiegati per l’assistenza o per il mantenimento dell’ordine pubblico.  Grazie agli strabilianti progressi tecnologici dell’ultimo decennio, non solo oggi i robot sono grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane, ma lo sviluppo di caratteristiche autonome e cognitive – ad esempio la capacità di apprendere dall’esperienza e di prenderedecisioni indipendenti –li ha resi sempre più simili ad agenti che interagiscono con l’ambiente circostante e sono in grado di alterarlo in modo significativo; che, in tale contesto, la questione della responsabilità giuridica derivante dall’azione nociva di un robot diventa essenziale.  L’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; che tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente.  Naturalmente più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, il  proprietario, l’utilizzatore, ecc.); che ciò, a sua volta, rende insufficienti le regole ordinarie in materia di responsabilità e rende necessarie nuove regole incentrate sul come una macchina possa essere considerata – parzialmente o interamente – responsabile per le proprie azioni o omissioni; che, di  conseguenza, diventa sempre più urgente affrontare la questione  fondamentale di uno status giuridico dei robot.  L’autonomia dei robot solleva la questione della loro natura alla luce delle categorie giuridiche esistenti – se devono essere considerati come persone fisiche, persone giuridiche, animali o oggetti – o se deve essere creata una nuova categoria con caratteristiche specifiche proprie e implicazioni per quanto riguarda l’attribuzione di diritti e doveri, compresa la responsabilità per i danni. Se cioè devono essere considerati soggetti o oggetti di diritto.  Fino ad adesso si sono esaminati i casi di responsabilità civile, ma la stessa problematica potrebbe porsi in caso di reati commessi tramite robot o umanoidi dove questi ultimi potrebbero non essere considerati semplicemente degli strumenti, ma, in quanto dotati di un’evoluta intelligenza artificiale  assumere dei livelli di responsabilità più elevati.  Come è noto nel nostro ordinamento vige il principio di soggettività che sta ad indicare che, per aversi reato, non basta che il soggetto abbia posto in essere  un fatto materiale offensivo, ma occorre altresì che questo gli appartenga  psicologicamente, che sussista cioè non solo un nesso causale ma anche un  nesso psichico tra l’agente ed il fatto criminoso, onde questo possa  considerarsi opera di costui.  E’ chiaro quindi che la responsabilità penale possa imputarsi solo all’individuo, anche perché, come è noto, la sanzione è la privazione della libertà personale. Proprio perché la responsabilità penale si configura dimostrando almeno la  colpa, mai potrebbe essere attribuita direttamente al produttore come potrebbe accadere in caso di danni arrecati a terzi da robot. Ma diverse sono le ipotesi di reato che possiamo considerare attraverso l’utilizzo di robot o automi ed è il caso adesso di procedere ad una breve  disamina.

1. Omicidio commesso da un uomo che utilizza un dispositivo robotico semplicemente come strumento cioè come arma. In tal caso ovviamente non si porrebbe alcun problema poiché il reato sarebbe ascrivibile  totalmente all’individuo.

  1. Omicidio commesso da un uomo che utilizza il robot come mero esecutore della propria volontà omicida (nuncius). In tal caso la  questione diventa più complessa poiché già ci troviamo di fronte ad un  robot dotato di un’intelligenza artificiale elevata tale da comprendere ed  eseguire i comandi di un uomo. Che responsabilità può configurarsi a  carico del robot?, E’ in grado di comprendere il disvalore sociale del fatto criminoso? E’ imputabile?

  2. Omicidio commesso da un uomo che intendeva utilizzare il robot solo per minacciare altri soggetti ed invece il robot non si limita a minacciare ma uccide. Anche in tal caso si dovrà capire fino a che punto possa attribuirsi la volontà omicida al robot (intelligenza artificiale forte e quindi piena  autonomia) o se non si sia trattato di un malfunzionamento. Ed in quest’ ultimo caso?

Secondo i sostenitori dell’ intelligenza artificiale forte i computer possono  riprodurre processi intellettuali identici a quelli umani, mentre per i sostenitori dell’intelligenza artificiale debole le macchine possono soltanto simulare i  processi intellettuali umani.  Naturalmente  per l’omicidio potrà essere riproposto anche per  altri reati ma indubbiamente si porrà sempre più il problema dell’incapacità  delle norme tradizionali di affrontare la questione della responsabilità di un  robot che diventi sempre più in grado di prendere decisioni autonome. La prospettiva finale potrebbe essere quella dell’istituzione di uno status giuridico specifico per i robot, di modo che almeno i robot autonomi più  sofisticati possano essere considerati come persone elettroniche con diritti e obblighi specifici.  Tale potrebbe essere il quadro che si verrebbe a delineare quando l’intelligenzaartificiale dovesse superare la capacità intellettuale umana al punto che, se non saremo preparati, potrebbe mettere a repentaglio la capacità degli umani di controllare ciò che hanno creato e, di conseguenza, anche la loro capacità di essere responsabili del proprio destino e garantire la sopravvivenza della specie.  Ma al fine di avere un quadro più chiaro sulle problematiche emergenti in tale settore analizziamo le storiche leggi della robotica elaborate nei suoi racconti da Isaac Asimov che per primo ipotizza la esistenza di macchine pensanti  talmente elaborate da poter adottare decisioni discrezionali, ragione per la  quale era necessario porre dei limiti simulando la morale umana.

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Ora per Asimov, che era uno scienziato, neppure le tre leggi sono perfettecome dimostrano alcuni racconti. Ad esempio una frase sfuggita per errore (“sparisci”) può essere interpretata in maniera errata e determinare un esemplare costoso a nascondersi senza possibilità di recupero; o comunqueper determinate attività, come quella del chirurgo, si possono determinare  conflitti insanabili nel caso di terapie sperimentali suscettibili di cagionare danni se si interviene e di permettere che la malattia diventi letale se non si  interviene.  Vi è un dato che occorre tener presente comunque: la discrezionalità del robotquale macchina pensante sino a che punto può essere considerata omologa a quella dell’uomo?  Il robot per quanto riesca a simulare il ragionamento umano resta una  macchina e ciò significa responsabilità del programmatore e/o dell’utilizzatore.Il robot segue i percorsi logici impressi nel cervello positronico secondo una
strada comunque delineata da altri (chi lo ha programmato o chi ha impartito l’ordine). E’ dotato di logica ma manca di quella libertà decisionale tipica dell’uomo (il libero arbitrio).  Così è paragonabile ad un soggetto che agisce sotto ipnosi o ad un  monomaniaco che ha la capacità di ragionare ma la stessa è compromessa ‘dalla mania da cui è affetto (paragonabile ad un limite della programmazionedi cui chi impartisce l’ordine può approfittare).  Il caso è previsto dall’articolo 111 codice penale: “Chi ha determinato a  commettere un reato una persona non imputabile, ovvero non punibile a  cagione di una condizione o qualità personale, risponde del reato da questa  commesso, e la pena è aumentata. Se si tratta di delitti per i quali è previsto l’arresto in flagranza la pena è aumentata da un terzo alla metà. Se chi ha  determinato altri a commettere il reato ne è il genitore esercente la potestà, lapena è aumentata fino alla metà o, se si tratta di delitti per i quali è previsto l’arresto in flagranza, da un terzo a due terzi”.  Naturalmente il principio di legalità nel diritto penale non consente di applicareper analogia la norma al caso in cui il reato sia commesso da un robot (che  non è una “persona”) e quindi è auspicabile che in futuro il legislatore estenda la previsione della fattispecie ai robot (chi ha determinato a commettere un  reato un robot).  Giova sottolineare che la “imputabilità” è definita dal legislatore (articolo 85 codice penale) come capacità di intendere (ovvero comprendere il significatodelle proprie azioni ed i comandi contenuti nelle norme) e di volere (ovverocapacità di autodeterminarsi, di scegliere la condotta da tenere, in base ad unmovente personale).  Così il robot, per quanto intelligente, non è imputabile perché resta una “ macchina” costruita da altri, sulla base di moventi altrui. Ciò comporta la  responsabilità di chi l’ha progettata (qualora la progettazione sia stata  dolosamente concepita al fine di consentire la commissione di un reato o sia  stata errata per imprudenza, negligenza e imperizia) o comunque la  responsabilità di chi ha impartito le direttive in base alle quali si è sviluppata l’azione delittuosa.  Allo stato restano quindi applicabili le regole generali per cui negli esempi, di  cui sopra, in tema di omicidio ai punti 1 e 2 rimane la responsabilità dell’uomoche ha voluto l’azione delittuosa ed in tal senso ha impartito ordini alla  macchina.  Quanto al punto 3, qualora si accerti che il soggetto intendeva utilizzare il  robot solo per minacciare o cagionare lesioni, ma l’azione del robot ha  determinato la morte occorre procedere secondo le categorie ordinarie del dolo eventuale e della colpa: se il soggetto aveva la possibilità di prevedere una reazione ulteriore delrobot ed ha accettato il rischio di un evento più grave si potrà parlare di
dolo eventuale; se il soggetto ha agito per imprudenza, negligenza o imperizia nell’impartire l’ordine, allora si avrà colpa. Ipotizziamo, a questo punto, che in futuro si possano sviluppare tecniche per consentire al robot di operare scelte in autonomia. Ciò non lo renderà “personafisica” essendo comunque frutto di costruzione dell’uomo. Il tema, quindi, non  è quello della intelligenza (che può essere artificiale e riprodurre i percorsi  logici umani) ma è quello della formazione dell’intimo volere che nell’uomo resta imprevedibile, andando oltre la logica. E nel caso in cui si programmasse
un robot capace di azioni imprevedibili, qualora il robot commettesse reati per  effetto di tale programmazione, sarebbe sempre ipotizzabile la responsabilità  del programmatore (dolosa o per colpa).  Analizzando la questione sotto altro profilo e volendo creare un laico  parallelismo tra robot ed essere umano si può dire che: il robot sta al programmatore/utilizzatore come il figlio sta ai genitori; il robot non è responsabile dei reati ai quali è stato indotto dal suo programmatore/utilizzatore così come non è responsabile il minore non  imputabile per i reati ai quali è stato indotto dai genitori (ex articolo  111 codice penale sopra richiamato). Resta un quesito: il figlio con la maggiore età si affranca dai genitori che lo  hanno generato ma non ne hanno la proprietà, mentre il robot si può  affrancare da chi ne ha la titolarità?  A tal proposito viene in mente il romanzo di Asimov “L’uomo bicentenario” che narra di un robot talmente perfetto da poter simulare le emozioni umane; il  robot riuscirà ad ottenere la soggettività giuridica dopo la rinuncia dell’ultima  titolare, ma per ottenere la piena e tanto desiderata equiparazione all’essere  umano a cui immagine e somiglianza è stato creato deve compiere un ultimo  passo decisivo: programmare lui stesso la sua morte.

Altalex, 21 febbraio 2017. Articolo di Michele Iaselli

Sul tema si segnala: Diritto e nuove tecnologie, Prontuario giuridico-informatico, a
cura di Iaselli Michele, ALTALEX EDITORE, 2016.


[1] H. Jonas, Il principio di responsabilità, Torino, 1979.

http://www.altalex.com/documents/news/2017/02/21/robot-con-intelligenza-artificiale-soggettivita-giuridica

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: