Vogliamo davvero un’intelligenza artificiale “spiegabile”?

Chiedo anticipatamente scusa a coloro che troveranno questo articolo, e quelli che forse seguiranno, troppo di nicchia, ma spero di poter convincere la maggioranza dei nostri lettori che in realtà l’argomento di cui scriverò è estremamente importante per tutti. Ma entriamo nel merito.

Chi ci segue sa che ci occupiamo spesso, anche se da un punto di vista non strettamente tecnologico, dei progressi dell’Intelligenza Artificiale (che potrei chiamare anche IA o AI) e delle loro conseguenze prevedibili. Sintetizzando, siamo convinti che le applicazioni dell’AI diventeranno sempre più estese e pervasive, che nella gran parte delle attività, anche quelle che consideriamo “creative” o “intellettuali”, gli esseri umani saranno affiancati e probabilmente in ampia misura sostituiti dai sistemi automatici, e che tutto ciò comporterà un considerevole sconvolgimento sociale ed economico a cui non ci stiamo minimamente preparando.

Tra i problemi “collaterali” dell’introduzione di sistemi di AI c’è ovviamente la loro accettabilità sociale. Se infatti i fattori economici spingono verso un’applicazione estensiva dell’AI, specialmente in alcuni settori critici esistono comprensibili e a volte giustificate resistenze. Questi settori sono ad esempio quelli in cui le decisioni da prendere (con o senza l’assistenza dell’AI) hanno effetti diretti e gravi sulle persone, come quello medico, quello giudiziario e diversi altri. Prendiamo una delle applicazioni dell’AI che negli USA è già in corso da alcuni anni, ossia la valutazione del rischio di recidiva al fine di decidere se un certo detenuto debba poter essere rilasciato sulla parola: esistono dei sistemi di AI che forniscono questa valutazione, tra cui il più conosciuto è COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), e che sono utilizzati in diverse giurisdizioni per assistere le decisioni dei giudici. Naturalmente, sebbene questi sistemi abbiano una funzione solo consultiva, i loro responsi sono presi molto seriamente e influiscono sulle decisioni umane (come è giusto che sia, altrimenti a che servirebbero?).

Questi utilizzi dell’AI, come scrivevo prima, suscitano perplessità comprensibili e anche giustificate, e bisogna tenerne conto a patto di ricordare che non sempre ciò che è comprensibile è anche giustificato. Ma andiamo con ordine.

Uno dei problemi maggiori, e quello su cui vorrei concentrare la mia attenzione qui, è che molti sistemi di AI attuali sono delle black box. In altre parole, chi li usa sa quali dati utilizzano come input e quale risultato producono, ma non è in grado di comprendere perché a certi dati di ingresso corrisponda un certo risultato. Il motivo, tecnicamente parlando, è che spesso questi sistemi apprendono, impiegando tecniche di machine learning e in particolare di deep learning, e che quindi il loro comportamento non è né predeterminato né riconducibile a regole esplicite e comprensibili a un essere umano. La conseguenza è che, in generale, neanche uno specialista o lo stesso creatore del sistema è in grado di capire perché in un certo caso il sistema risponda ‘Sì’ anziché ‘No’.

Come è assolutamente comprensibile, è molto difficile accettare che un “giudice” possa emettere una sentenza senza essere in grado di spiegarne le motivazioni. Questo, aggiunto agli errori che qualsiasi sistema informatico può incorporare, ha suscitato vivaci proteste non solo contro COMPAS, ma più in generale contro il potere degli “algoritmi”, che possono essere distorti (biased) a danno di questa o quella categoria, tipicamente quelle tradizionalmente più discriminate (ad esempio, COMPAS è stato accusato di discriminare a danno dei neri e a favore dei bianchi). Le preoccupazioni antidiscriminatorie, rapidamente estesesi negli USA fino a suscitare movimenti organizzati per “combattere gli algoritmi”, hanno raggiunto l’Europa e l’UE, che sta elaborando un Artificial Intelligence Act, in sostanza una proposta di normativa concettualmente simile a ciò che il GDPR è nel campo della privacy, intesa a “proteggere” i cittadini europei da usi pericolosi dei sistemi di AI. In realtà, ma per capirlo occorre già un minimo di comprensione delle tecniche di machine learning, le potenziali distorsioni dei sistemi di AI non derivano dagli algoritmi che essi incorporano, ma dai dati che vengono utilizzati per addestrarli.

Negli anni Ottanta e Novanta, le principali applicazioni dell’AI erano dei sistemi esperti, che essenzialmente incorporavano delle regole, di solito ricavate dalla conoscenza di esperti umani, per valutare problemi di un determinato campo. L’approccio basato su regole esplicite (come «se ha la proboscide, è un elefante») tuttavia non sempre dava risultati soddisfacenti, e i sistemi esperti hanno sempre avuto delle applicazioni sostanzialmente di nicchia, in contesti abbastanza ristretti da poter essere efficacemente dominati con insiemi chiusi di regole. I sistemi basati sul machine learning invece, anziché incorporare una conoscenza formalizzata, imparano a giudicare i problemi sulla base di un gran numero di esempi reali, sui quali adattano i loro parametri di valutazione. Ne abbiamo parlato tempo fa a proposito del gioco degli scacchi: un’AI che utilizza il machine learning non contiene un elenco di regole su quali mosse siano migliori: semplicemente, esaminando il risultato di centinaia di migliaia di partite, è in grado di imparare da sola quali siano le mosse migliori.
Il problema, però, è che negli scacchi il risultato di una partita è inequivocabile, e quindi l’AI può “capire” da sola se giocare in un certo modo abbia avuto un effetto positivo o negativo. Per le scelte del mondo reale, invece, non è così semplice: se, ad esempio, per addestrare un sistema di AI destinato al settore giudiziario, gli si fanno “studiare” migliaia di casi giudiziari passati, bisogna anche dire all’AI quale fosse in ciascun caso la sentenza giusta, perché essa possa gradualmente imparare cosa lega le caratteristiche di un caso alla sentenza da emettere. E qual è la sentenza giusta?

La risposta più ovvia sarebbe: in mancanza di una Giustizia superiore, diciamo che la sentenza giusta è quella che è stata effettivamente emessa dal giudice umano. Ma questo comporta il rischio di trasferire all’AI le eventuali distorsioni di giudizio degli esseri umani, e se un determinato pregiudizio è condiviso da più giudici umani questo rischio si moltiplica. Questo è il motivo per cui come dicevo negli USA alcune minoranze hanno contestato l’impiego di sistemi di AI “biased”: se un giudice umano è razzista, e le sue sentenze sono usate per addestrare un’AI, il risultato sarà un’AI razzista. In un paese dove, specie se si risale indietro nel tempo, la Giustizia non è stata sempre amministrata in modo equanime, questa è una preoccupazione giustificata.

A peggiorare le cose, c’è il fatto che come abbiamo visto i sistemi AI black box non consentono neanche di verificare le motivazioni dei loro giudizi. Un giudice robotico di quel tipo potrebbe condannare un imputato senza che nessuno possa sapere perché. Comprensibilmente, questo è considerato da molti inaccettabile, tanto che la stessa UE afferma, nell’articolo 22 della normativa sul GDPR, che ogni cittadino ha «il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona». Anche nei casi in cui un trattamento automatico venga applicato, il cittadino ha «il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione», e devono essere prese «misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato». Ma come è possibile «contestare» una decisione di cui non è possibile conoscere neanche le ragioni? Una forte corrente di pensiero (che trova riscontro anche in alcune delle considerazioni non vincolanti del GDPR) ritiene che a chi è oggetto di una decisione in cui interviene una valutazione automatica debba essere riconosciuto un diritto alla spiegazione.

Tutte queste considerazioni hanno dato impulso a una (relativamente) nuova disciplina, la Explainable Artificial Intelligence, spesso abbreviata con XAI, il cui scopo è essenzialmente rendere possibile agli esseri umani comprendere le valutazioni e le previsioni elaborate dai sistemi di AI. In realtà, ci sono almeno due diversi approcci al problema di rendere comprensibili le (ragioni delle) decisioni di un sistema di AI: uno è utilizzare un modello “comprensibile” esterno alla black box per, appunto, spiegarne i risultati, l’altro è evitare del tutto le black box e sostituirle con sistemi che usino solo algoritmi interpretabili, ossia accessibili alla logica umana (per la differenza tra sistemi “spiegabili” e “interpretabili” rinvierei ad esempio all’articolo Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead di Cynthia Rudin). In altre parole, al momento le alternative che sembrano presentarcisi sono:
1) usare sistemi di AI senza restrizioni di tecnologie, e accettare di non essere in grado di comprendere la logica e le motivazioni delle loro decisioni;
2) usare sistemi di AI senza restrizioni di tecnologie, e tentare di sviluppare modelli “associati” che forniscano spiegazioni approssimate o “indizi” sulle motivazioni delle decisioni automatiche;
3) imporre restrizioni alle tecnologie che possono essere utilizzate per realizzare i sistemi di AI, limitandole a quelle interpretabili.

Inutile dire che ciascuna di queste alternative presenta svantaggi piuttosto cospicui, non solo oggi ma soprattutto in prospettiva. Un approfondimento richiederebbe un altro articolo (che spero di riuscire a scrivere presto), ma è comunque necessario notare che, sebbene questi argomenti siano molto tecnici, le loro implicazioni riguardano tutti, e gli eventuali vincoli che potrebbero essere imposti ai soggetti, privati o pubblici, che adottano soluzioni basate sui sistemi AI (cioè praticamente tutte le aziende e tutti gli enti pubblici) richiederanno delle leggi (come l’AI Act che citavo prima) su cui praticamente nessun cittadino è oggi informato e che pochissimi sono in grado di analizzare ai fini di esprimere un eventuale consenso o dissenso.

Il rischio molto concreto non è solo quello di affidare a imperscrutabili sistemi automatici una quota crescente delle nostre decisioni, ma anche quello di delegare a pochissimi “specialisti” interdisciplinari (che cioè si occupino di AI ma anche dei suoi campi di applicazione, come la giurisprudenza, l’economia, la medicina, eccetera) decisioni strategiche come quelle che ho discusso in questo articolo. Il tutto senza alcun reale dibattito pubblico.