L’ultima invenzione dell’Umanità saranno i robot intelligenti?

robot-eyes

Recentemente, senza forse che alla notizia sia stata data un’adeguata evidenza, IBM, Facebook, Google, Microsoft e Amazon (in pratica, le principali aziende tecnologiche globali con l’eccezione di Apple) hanno costituito una collaborazione chiamata Partnership on AI (AI sta per Artificial Intelligence, l’Intelligenza Artificiale di cui parleremo in questo post) il cui scopo essenziale è “assicurare che le applicazioni dell’AI siano benefiche per le persone e per la società”. Ma come mai cinque aziende private e ferocemente in competizione tra loro, che investono moltissimo in sistemi “intelligenti”, e che da questi sistemi ricavano (e sempre più ricaveranno) enormi profitti, improvvisamente si preoccupano del “bene” che dovrebbe derivare dalle loro innovazioni?

La risposta può essere intuita da chi abbia notato un’altra recente notizia: in occasione dell’anniversario della costituzione del Movimento 5 Stelle, Davide Casaleggio, figlio del fondatore Gianroberto, ha pubblicato un video concepito dal padre prima di morire, nel quale si “profetizza” la scomparsa del genere umano per “mano” di una stirpe di esseri artificiali superintelligenti. In realtà, Casaleggio non faceva che raccontare le preoccupazioni che già da anni sono nutrite da molti addetti ai lavori, preoccupazioni che possono essere riassunte in una domanda: “Quando avremo creato un’intelligenza artificiale sovrumana, cosa sarà di noi?”. Ovviamente, le risposte sono diverse, anche tra gli specialisti, e persino tra coloro che stanno attivamente lavorando per avvicinare appunto il giorno in cui gli esseri umani non avranno più il primato dell’intelligenza sul pianeta Terra, ossia l’evento che nel settore viene talvolta indicato come singolarità.

Noi su Hic Rhodus ci siamo già occupati di questo tema, in diverse sue sfaccettature:

Quest’ultima eventualità, per quanto sorprendente possa apparire ad alcuni, è tra le preferite dagli ottimisti dell’AI, in particolare da Ray Kurzweil, e potrebbe portare l’umanità a superare malattie, morte, confinamento sull’ecosistema terrestre, eccetera. Altri esperti sono meno ottimisti, e temono che l’avvento delle macchine superintelligenti renda semplicemente obsoleta la specie umana. Il punto fondamentale è che un’intelligenza artificiale di livello umano sarebbe verosimilmente in grado di capire come evolversi, grazie alla tecnologia, e quindi si creerebbe un’intelligenza artificiale un po’ superiore, che saprebbe ancora meglio come evolversi, e così via, in un’ esplosione che giustifica il ricorso alla nozione di singolarità.

Senza voler entrare qui in un’esposizione troppo approfondita (chi volesse troverà a fine post un elenco di risorse per esplorare i diversi punti di vista), è chiaro che è difficile dire per quale motivo un’intelligenza superiore a quella umana (e, per i motivi esposti prima, in rapida crescita, quindi possiamo dire un’intelligenza enormemente superiore a quella umana) dovrebbe mostrare lealtà o benevolenza verso gli uomini. Certo, fintanto che l’AI sia progettata da noi (e non da se stessa) si potrebbe tentare di programmarla per essere appunto benevola, ma non è facile immaginare come codificare in un’AI delle “regole etiche” che le impediscano di provocare danni all’Umanità; non è facile neanche se si tratta di un’AI meno evoluta di noi, figurarsi un’AI superintelligente.

Questa difficile impresa è l’obiettivo del lavoro del MIRI (Machine Intelligence Research Institute), un’organizzazione privata di ricerca che ha come scopo appunto sviluppare tecniche di progettazione di Friendly AI, ossia di forme di intelligenza artificiale che siano inerentemente benevole verso l’umanità. Altri ricercatori di valore sono impegnati in sforzi analoghi, ma la domanda fondamentale probabilmente è: ammesso che si riesca a trovare il modo di incorporare nella progettazione di un’AI di livello umano delle regole che garantiscano che il risultato sia e rimanga una Friendly AI, come potremmo mai essere certi che tutti coloro che (in tutto il mondo, sotto il controllo pubblico o in aziende indipendenti) lavorano sulla sviluppo dell’intelligenza artificiale adottino queste tecniche “di sicurezza”? Francamente, è difficile credere che certi “centri di ricerca” si preoccupino di produrre automi “etici”, anche considerato che una parte notevole della ricerca in ambito AI ha scopi militari.

Di fronte a preoccupazioni così forti, molti tendono a ritenere che nascano da una pura e semplice resistenza al cambiamento. Alcuni amici con cui ho fatto cenno di questi pericoli hanno obiettato che è da quando la tecnologia esiste che ci sono frange di catastrofisti che profetizzano la perdita di milioni di posti di lavoro e la disoccupazione di massa, l’abbrutimento della popolazione, il sopravvento della logica delle macchine su quella umana. I più appassionati di Storia mi hanno ricordato il luddismo, quel movimento che durante la prima rivoluzione industriale in Inghilterra intendeva bloccare l’avanzamento dell’automazione anche con atti violenti e sabotaggi delle odiate macchine. La realtà è, continuano, che invece il progresso tecnologico ha migliorato le condizioni di vita di tutti, e, se alcuni lavori sono scomparsi, se ne sono creati di nuovi e più stimolanti. Gli oppositori del progresso tecnico hanno avuto sistematicamente torto.
L’analogia però, temo, non regge. Oggi a manifestare preoccupazione non sono dei retrogradi, incapaci di comprendere le potenzialità della tecnologia, o magari attaccati a un mondo e a modelli sociali e lavorativi che sarebbero scossi dall’avvento di un’intelligenza artificiale davvero a livello umano: gli allarmi provengono da personaggi di primissimo piano nei settori della scienza e delle tecnologie innovative. Se Stephen Hawking, Elon Musk, Bill Gates e molti altri leader della ricerca scientifica e tecnologica sottolineano il pericolo esistenziale che la ricerca per un’AI di livello umano (e sovrumano) pone per la sopravvivenza stessa dell’Umanità, non è lecito paragonarli ai luddisti; vuol dire che il pericolo esiste e occorre tenerne conto.

Insomma: per ragioni opposte, molti specialisti, ottimisti e pessimisti, ritengono che l’intelligenza artificiale di livello umano sarà l’ultima fondamentale invenzione dell’Umanità, o perché questa AI ci permetterà di risolvere tutti i nostri problemi, o perché ci distruggerà perseguendo scopi che ci trascendano. Anche coloro che ritengono che la specie umana sarà in grado di tenere il passo prevedono profonde trasformazioni e, in ultima analisi, una sorta di ibridazione tra umani e macchine. L’unica cosa certa è che questa prospettiva riguarda tutti, e dovrebbe indurre tutti a interessarsene e a fare il possibile perché la ricerca nel campo dell’AI tenga presenti i rischi del loro lavoro: l’AI, in un tempo non lontano, sarà l’invenzione più potente della nostra storia, ed è molto inquietante l’idea che sia sviluppata senza prevedere meccanismi di sicurezza.

 

Risorse (oltre a quelle riferite nel corpo del post):
– Un ottimo post del bel blog Wait but Why, diviso in due parti, che passa in rassegna molto del materiale disponibile sul problema e riporta molti riferimenti utili
– Come detto, il guru della singolarità è Ray Kurzweil. Il suo libro più noto sull’argomento è La singolarità è vicina; altro materiale interessante (non solo su questo argomento) è accessibile dal suo sito http://www.kurzweilai.net/
– Tra gli autori “pessimisti” segnaliamo Nick Bostrom, col suo libro Superintelligence (sarà un caso, ma in copertina c’è l’immagine di un gufo)
– Un ottimo libro che non prende le parti di nessuno degli addetti ai lavori è Our Final Invention, di James Barrat, da cui ho preso ispirazione per il titolo di questo post
– La voce Wikipedia (in inglese) sul rischio esistenziale derivante dall’AI

3 commenti

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...