Come topi in un labirinto

Filippo Ottonieri ha da poco illustrato, qui su HR, come sia complicata l’intelligenza artificiale (IA), spiegandoci come il suo funzionamento sia una specie di black box, ovvero un luogo (‘luogo’ è, ovviamente, un’analogia fuorviante) in cui si sa che dati hai immesso, si sa quali risultati sono emersi, ma quale percorso logico sia intercorso nel mezzo (ovvero: come l’IA, con quei dati, abbia ottenuto quei risultati) è ignoto, perfino ai programmatori e ai tecnici.

Qualche giorno prima io avevo proposto una riflessione su tutt’altro argomento, cercando di porre un interrogativo: essendo – io sostenevo – inconoscibile il mondo, a causa di una complessità sociale imperscrutabile, come può un cittadino partecipare alla vita democratica, o meglio: come si può concepire una democrazia senza la consapevolezza del popolo? Dopo avere letto Ottonieri ho capito che stiamo parlando della stessa cosa, e che quella che, da anni, viene chiamata ‘complessità sociale’, è nient’altro che una black box: della complessità sociale capiamo – con assai più approssimazione del programmatore di IA – natura, valore, distribuzione dei dati di ingresso e di uscita e delle relazioni fra loro, ma come abbiano fatto a diventare tali è relegato a ipotesi, teorie abbastanza vaghe, approssimazioni più o meno plausibili.

Mentre pensavo a questa analogia, me n’è apparsa alla mente un’altra: la religione. Questa è una fantastica black box! Chi crede in dio (per esempio in quello cristiano) sa bene quali sono i dati in ingresso (l’Onnipotente che decide di creare il mondo e l’umanità) e quali quelli in uscita (tutto ciò che è davanti ai nostri occhi), ma non ha alcun modo per spiegarlo; solo che il credente, anziché black box, la chiama “fede”. Poiché ha fede (= poiché accetta come mistero la black box senza il bisogno di una spiegazione ontologica), allora tutta la costruzione trascendente ha per lui un senso.

Compiendo ora un azzardo che vale quanto un triplo carpiato sociologico, che ha il valore dell’immagine, della suggestione, per capire un ragionamento più ampio, possiamo immaginare una successione logica e storica di quanto accennato ora:

ReligioneSocietàIntelligenza artificiale
FEDECOMPLESSITÀBLACK BOX

Che ci sia una successione storica è ovvio: la religione ha accompagnato l’umanità dai primordi al giorno d’oggi, ma nel mondo occidentale è in declino; la società umana è altrettanto antica, ovviamente, ma dal punto di vista che qui interessa – quello della massiccia complessità sociale – è piuttosto recente; infine, mentre la ricerca di automi senzienti inizia nel ‘700, si sta concretizzando in questi nostri giorni. Mirabile fortuna delle nostre generazioni! Siamo esattamente sul crinale: stiamo assistendo al crepuscolo di un vecchio mondo, e assistendo alla nascita di un mondo nuovo. E continuiamo a non capirci nulla!

Meno ovvia la successione logica, che per me ha un senso evolutivo: la fede non devi spiegarla (non puoi parlare di dio senza uscire dalla logica divina, creando quindi una contraddizione categoriale – ne ho parlato QUI); la complessità non puoi (ne ho trattato in molti post, fra i quali QUESTO); la black box dell’IA non sai. Il primo caso è prescrittivo, il secondo metodologico, il terzo retorico (parliamo di cose attorno all’IA: la nostra preoccupazione e incertezza, cosa ci riserva il futuro… Ma non stiamo parlando di cosa sia l’IA).

Proseguendo il ragionamento da me avviato nel precedente articolo, menzionato sopra, ogni individuo, ogni gruppo sociale, ogni paese, si trova immerso in una stratificazione di black box, differente a seconda delle convinzioni, dei contesti, delle situazioni: la fede (più o meno: in popolazioni non secolarizzate in maniera fortissima, in comunità religiose fondamentaliste – anche cristiane, anche in occidente – in maniera fortissima, altrove meno o per niente), l’inevitabile complessità sociale (più o meno: forse in residue comunità rurali molto meno, fra gli aborigeni australiani meno ma, insomma…), l’imminente diffusione dell’IA.

Riguardo a quest’ultima non vorrei ci illudessimo. Anche se le tecnologie cui siamo abituati, dallo smartphone a Siri o Alexa, Sky glass, per non dire del portatile col quale sto scrivendo, non sono che gli antenati primitivi di quella che sarà l’IA nei prossimi anni, pure già oggi ciascuno di noi è immerso in un mondo tecnologico ignoto. Ricordo un amico africano, negli anni ’90, che cercava di spiegarmi le meraviglie dei nascenti computer con la magia africana, sostenendo che erano, alla fin fine, la stessa cosa. Io all’epoca non lo capiii, ma stava cercando di spiegarmi quello che adesso io sto cercando di spiegarvi (anzi: devo aggiungere il mondo magico all’elenco delle black box). Certo, un tecnico, un ingegnere elettronico, vi sa spiegare quasi tutte le cose elencate, così come un etnologo vi sa spiegare abbastanza bene come vivono gli aborigeni. Ma ci fermiamo lì. I preti non sanno spiegare dio, i sociologi non sanno spiegare la società e i tecnologi non sanno spiegare l’IA, più o meno come i fisici quantistici non sanno spiegare la fisica dei quanti, ma sanno che funziona.

Aggiungete a piacere che non conosciamo noi stessi, non capiamo il nostro cane, non riusciamo a sapere se domani pioverà.

Adesso dovremmo interrogarci su cosa abbiamo imparato da tutto questo.

Io personalmente ci sto pensando, ma ho la sensazione che ciò che capisco mi fa ritrarre nel mio fòro interiore, in un processo nichilistico che mi piacerebbe definire leopardiano, se l’aggettivo non fosse esagerato, in me, al confronto con uno dei più grandi intellettuali italiani. Facciamo un po’ di lista dei problemi che dovremo approfondire (ognuno per conto suo):

  • l’infinita questione del senso della vita (mia risposta: nessuno);
  • l’idea del libero arbitrio (mia opinione: è un’idea ridicola; ne scrissi QUI);
  • la possibilità di una comunicazione umana finita e certa (mia opinione: impossibile);
  • la questione del potere, del governo della complessità (mia idea: impossibile governare la complessità; ne ho scritto QUI).

Eccetera.

Siamo come i topi nel labirinto. Loro non sanno perché sono lì e cosa ci si aspetta da loro. Loro girano come matti cercando un’uscita, o del cibo, o una femmina (o un maschio), e a volte trovano quel che cercano andando per tentativi ed errori, imparando qualcosa che vale nell’immediato e poco più. E se nel labirinto c’è una trappola ci finiscono dentro e muoiono. E non c’è un “perché?”, non per i topi, almeno.

(Continua...)