Abbiamo bisogno di macchine assassine

killerrobot

Pochi giorni fa, Uber ha annunciato che entro la fine del mese comincerà a svolgere un servizio taxi a Pittsburgh utilizzando automobili Volvo a guida automatica, per il momento con un guidatore umano in grado di intervenire nei momenti in cui l’autopilota non riesca a cavarsela da solo, come nell’attraversamento di un ponte. Insomma, Uber gioca d’anticipo rispetto ai molti soggetti (a partire da Google) che stanno preparandosi a portare nelle strade di tutto il mondo veicoli completamente automatici, all’inizio magari con la foglia di fico di un guidatore umano (anche per ragioni legali); per Uber, che in tutto il mondo utilizza più di un milione di autisti (fonte: Bloomberg), i benefici a lungo termine sono evidenti, ed enormi.

È certamente un primo passo nella direzione di una sostituzione di lavoratori umani, sia pure saltuari e non particolarmente qualificati, con robot; di questi scenari abbiamo parlato diverse volte, anche recentemente, e non è il caso di tornare sul tema. Quello che invece vorrei prendere in esame è un problema di cui si discute ormai abbastanza spesso quando si parla di autoveicoli a guida automatica, e cioè la questione etica applicata ai robot.

Il fatto è che non è pensabile che il passaggio alla guida automatica elimini il 100% degli incidenti. Quindi, inevitabilmente, prima o poi un’automobile “robotizzata” si troverà di fronte a un incidente inevitabile, e dovrà “decidere” come comportarsi: cercare a tutti i costi di proteggere l’incolumità dei passeggeri? Tutelare i pedoni? Evitare di infrangere il codice della strada? Quello che rende complicato dotare i robot di questa capacità decisionale è che neanche noi abbiamo delle regole precise a questo riguardo. Premesso che i tempi di reazione di un essere umano sono molto più lenti di quelli di un computer, e che quindi quest’ultimo è in grado di compiere più azioni in un breve intervallo di tempo, sta di fatto che a parte il codice della strada non esiste altra regola condivisa su come ci si dovrebbe comportare quando un incidente è inevitabile. Se la mia auto ha i freni rotti, dovrei sterzare e finire fuori strada pur di non investire un pedone?

In realtà, quello che probabilmente la maggioranza di noi farebbe è proteggere la propria vita, e quindi non andrebbe deliberatamente fuori strada. Ma un robot? Una risposta molto conosciuta è quella che propose nei suoi racconti lo scrittore di fantascienza Isaac Asimov, che previde che i robot sarebbero stati programmati per seguire un’etica governata da tre semplici Leggi della Robotica, la prima delle quali recita “Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno”.

asimov

Isaac Asimov

Ebbene, è agevole rendersi conto che, fuori dei contesti controllati di un laboratorio o una fabbrica, se vogliamo davvero che i robot svolgano attività complesse e importanti, questa legge li renderebbe completamente inutili, Il fatto è che un robot intelligente deve (dovrà) lavorare in condizioni di relativa incertezza, come facciamo noi. È facile immaginare un robot chirurgo migliore di qualunque chirurgo umano: capace di vedere dettagli minutissimi, di controllare i propri movimenti con precisione assoluta, di collegarsi, mentre opera, con qualsiasi banca dati del mondo contenente informazioni su operazioni analoghe e il loro esito, eccetera. Questo robot non potrebbe mai obbedire alla Prima Legge di Asimov, perché ogni operazione comporta comunque un rischio, e quindi l’operato del robot potrebbe recar danno al paziente; ma anche non operare comporta dei rischi, e quindi il mancato intervento del robot violerebbe la stessa legge. In altre parole, l’etica non è una scienza esatta, e applicarla richiede la capacità di assumersi un certo grado di rischio, o la scelta tra due esiti comunque funesti, come il caso di un incidente in cui non si possano salvare contemporaneamente i passeggeri di un veicolo e le persone intorno. Ecco perché, per usare il titolo di un interessante articolo, le automobili a guida automatica devono essere programmate per uccidere.

Intendiamoci: ci sono delle ottime ragioni per cui Asimov inventò le sue leggi: intuì che dei robot dotati di intelligenza ma non di qualche regola etica sarebbero estremamente pericolosi. Il pericolo più ovvio è quello esemplificato da un recente episodio di cronaca: la polizia di Dallas ha usato un robot per trasportare e far esplodere una bomba in prossimità di un criminale armato barricato in un garage. L’uomo è rimasto ucciso, e ovviamente nessun agente ha corso rischi. È già noto che diversi eserciti stanno lavorando su robot-soldato, autonomi anziché controllati a distanza come i droni, e in grado di combattere.

Ma lo scenario dei robot-soldato o dei robot-arma non è l’unico di cui preoccuparsi. Se non viene specificamente programmato per proteggere la vita di qualsiasi essere umano, un robot intelligente, incaricato di svolgere un qualsiasi compito, potrebbe farlo in modo da mettere in pericolo la vita di qualche persona che magari è casualmente nelle vicinanze. Insomma non dobbiamo preoccuparci solo dei robot “cattivi” ma anche di quelli “amorali”; questo è l’insegnamento di Asimov che è ancora valido.

Torniamo al caso, più familiare, dell’automobile a guida automatica, e riassumiamo quello che abbiamo  capito:

  1. È necessario che il “pilota automatico” incorpori un qualche sistema di regole etiche;
  2. Queste regole non possono essere “assolute” come “non devi mai rischiare di mettere in pericolo una vita umana”, perché non funzionerebbero;
  3. Noi stessi, che guidiamo un’auto tutti i giorni, in realtà non disponiamo di regole esplicite di questo tipo. Forse, se costretti, preferiremmo investire una vecchietta anziché una madre con una carrozzina, ma in base a quale principio?

Effettivamente, l’assenza di una risposta facile a questa domanda sta dando vita a un dibattito piuttosto vivace, che non tenterò di riassumere qui; mi limito a segnalare l’interessante iniziativa del MIT che, pragmaticamente, ha predisposto una sorta di sondaggio pubblico. Collegandosi a un sito dal suggestivo nome di Moral Machine, è possibile assumere il ruolo di giudice etico per “sentenziare”, in uno scenario ipotetico in cui un veicolo automatico abbia perso la capacità di frenare, quale di due alternative sia “eticamente preferibile”. Si noti che il giudice non si identifica con un passeggero dell’auto, o con qualsiasi altra persona coinvolta.

scelta auto automatica

Uno degli scenari di incidente proposti nel sondaggio del MIT

È particolarmente interessante (se non lievemente sinistro) osservare che gli scenari proposti dal MIT propongono situazioni in cui ci si trova a dover scegliere in base a parametri come:

  • Il numero delle persone da salvare o far morire;
  • Il loro sesso;
  • La loro età;
  • Il loro valore sociale (sic): preferite salvare un criminale, una persona qualsiasi, un dirigente d’azienda o un medico?
  • La loro condizione fisica: preferite far morire una persona media, un atleta o una persona sovrappeso?
  • Il fatto che stiano o meno rispettando il codice della strada: la vita di un pedone che attraversa col rosso va protetta quanto quella di uno che attraversa col verde?

Se trovate la cosa leggermente inquietante, sappiate che condivido. Naturalmente, potreste obiettare che un veicolo automatico non avrebbe modo di sapere che un certo passante è un medico, o un criminale, ma sbagliereste. Questo tipo di situazione non è certo l’unica concepibile in cui un sistema automatizzato potrebbe dover decidere della vita o della morte di un certo numero di persone; immaginate ad esempio di disporre di un numero limitato di dosi di un certo vaccino e di dover ottimizzare la loro distribuzione in una popolazione a rischio. Chi salvereste? E se, per essere certi dell’imparzialità della decisione, si ricorresse a un robot per somministrare il vaccino o un placebo, quali regole dovrebbe seguire il robot? In quel caso, il robot saprebbe esattamente chi sia ciascuno, la sua storia clinica, eccetera. Avete una risposta?

A Baltimora, come racconta il New York Times, la dottoressa Daugherty Biddison dell’ospedale John Hopkins si è trovata incaricata di stendere dei piani per gestire la scarsità di risorse in caso di emergenza (come un’epidemia o una catastrofe naturale), ed è giunta alla conclusione di non sentirsi in diritto di farlo senza consultare la comunità. Quindi, i medici del John Hopkins hanno cominciato a fare sondaggi tra i cittadini per capire quale codice etico applicare: la vita di un bambino vale più di quella di un anziano? Quella di una persona sana più di quella di un malato?

In conclusione, l’avvento dei robot intelligenti sta portando alla luce delle aree grigie della nostra etica sociale: se abbiamo ragione di temere le scelte di una macchina in fatto di vita o di morte, forse è perché sappiamo di aver ancora più ragione di temere le scelte di noi esseri umani. In fondo, non è stata una macchina a far scegliere ai ricercatori del MIT di inserire la forma fisica tra le variabili potenzialmente rilevanti per la scelta di chi far vivere e chi far morire…

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...