Con la riapertura di ChatGPT agli utenti italiani, di cui abbiamo già parlato, l’attenzione dei nostri media ha abbandonato le complesse questioni associate ai Large Language Models, i sistemi di intelligenza artificiale progettati per essere in grado di comprendere e produrre testi in normale linguaggio umano. In realtà, sistemi di AI come ChatGPT, che utilizzano valanghe di dati di incerta provenienza nei loro lunghi e complessi “addestramenti”, rimangono, nella sostanza, difficilmente compatibili con le norme (specie europee) sulla privacy e sul diritto a controllare i propri dati e l’uso che ne viene fatto da terzi.
Lo dimostra un’altra notizia passata del tutto sotto silenzio, ossia il fatto che la normativa europea in fieri specificamente pensata per regolare i sistemi di intelligenza artificiale (l’AI Act, di cui abbiamo commentato una bozza in un altro precedente articolo) abbia superato e sia ora in attesa di essere sottoposta al voto da parte del Parlamento Europeo prima di diventare vincolante. Si tratta di una notizia molto importante anche perché, nel corposo testo che raccoglie gli emendamenti approvati in commissione, si affronta ora direttamente il problema dei cosiddetti Foundation Models, sistemi AI addestrati con tecniche di machine learning su enormi quantità di dati. Di questa categoria di sistemi fanno parte i sistemi generativi (ossia che producono contenuti anziché, ad esempio, classificare o giudicare oggetti esistenti): sia di testi (come ChatGPT e le sue controparti come Bard di Google), sia di immagini (come DALL-E e molti altri), sia di contenuti audio o video.
Questi sistemi, che sono definiti Foundation Models perché su di essi si baseranno servizi più specifici che ne utilizzeranno le capacità, saranno sottoposti a una serie di obblighi e restrizioni (ad esempio dovrà essere reso chiaro che un certo testo o un’immagine siano stati prodotti da un’AI e non da un essere umano). Questi obblighi a mio avviso ancora non centrano il nucleo dei problemi sollevati da questi sistemi, ma si tratta di un discorso che potrebbe occupare un intero articolo, se non più di uno; per il momento, rinvio a quanto potete leggere nell’articolo ChatGPT e il cattivo Garante.
Quello che invece vorrei commentare qui sono le dichiarazioni, recentemente riportate da Time, del fondatore e presidente di OpenAI Sam Altman. Altman, che è noto anche per aver più volte affermato che il settore della ricerca in Intelligenza Artificiale deve essere regolamentato, ha affermato un paio di cose importanti.
La prima è che, alla luce appunto della probabile approvazione dell’AI Act, OpenAI, che fornisce sia i servizi di ChatGPT che quelli di DALL-E, farà il possibile per ottemperare alle nuove norme, ma che se questo non sarà tecnicamente possibile dovrà rinunciare a operare nell’Unione Europea. Potrebbe insomma riproporsi, su scala continentale e permanente, quello che è temporaneamente accaduto in Italia a seguito delle richieste del Garante per la Privacy (e possiamo incidentalmente dire che questo conferma che il nostro Garante non era in errore, ma semmai anticipava una linea su cui si sarebbero poi collocati anche gli altri paesi dell’UE). Un blocco sarebbe certamente un danno per le imprese italiane, e contemporaneamente non garantirebbe davvero i cittadini europei, visto che alcuni dei rischi che l’AI Act tenta di evitare (come l’uso senza autorizzazione di materiale sotto copyright) ci sarebbero ugualmente quando ChatGPT o DALL-E rispondessero a richieste di utenti fuori dell’UE. Come dicevo sopra, bisogna ancora lavorare parecchio per capire quali norme sia sensato applicare ai sistemi di AI basati sul deep learning massiccio.
La seconda affermazione importante di Altman riguarda la necessità di «ragionare sulla distribuzione della ricchezza diversamente da come facciamo ora», dato che questo aspetto dell’economia deve essere gestito «un po’ diversamente dopo ogni rivoluzione tecnologica». Secondo Altman, nel 2024 OpenAI promuoverà il dibattito su questo argomento, anche grazie alla ricerca che sta svolgendo da anni sul reddito universale di base (universal basic income, una cosa un po’ diversa dal Reddito di Cittadinanza italiano). Non è la prima volta che uno dei leader delle imprese tecnologiche globali invita la politica a predisporre uno strumento simile per affrontare l’inevitabile taglio di posti di lavoro che sarà provocato dall’AI: in passato hanno fatto lo stesso Elon Musk, Bill Gates e altri.
Chi ci segue sa che noi, molto modestamente, la pensiamo allo stesso modo. Pensiamo che l’AI provocherà, col tempo, una irreversibile disoccupazione di massa; che le entrate fiscali e contributive, oggi “calibrate” sul lavoro umano, crolleranno allo stesso tempo in cui la disoccupazione farà schizzare verso l’alto le necessità di assistenza; che la parte del leone dei profitti dell’automazione si concentrerà nelle mani di poche megaimprese globali, quelle in grado di fornire sistemi AI su scala mondiale. Insomma, dire che sarà necessario gestire un po’ diversamente la redistribuzione della ricchezza è a mio avviso l’eufemismo dell’anno; eppure, è già una posizione molto più avanzata e consapevole di quella dei nostri politici, che dedicano il loro tempo a tutt’altro e non sono generalmente neanche consapevoli del problema.
Dove naturalmente casca l’asino è sulla domanda ovvia che andrebbe fatta a Altman, Musk e compagnia bella: da dove si dovranno prendere i soldi per finanziare una spesa per il welfare che per poter pagare un reddito universale di base dovrà crescere e anche molto? Il fatto è che la risposta ovvia, anzi l’unica possibile, è: dai profitti delle imprese di Altman, Musk, Gates, eccetera. Il profitto che deriverà dalla sostituzione di lavoratori con sistemi di AI sarà diviso tra le imprese “locali”, che risparmieranno gli stipendi e i contributi, e le grandi aziende globali, che forniranno alle precedenti i sistemi di AI già addestrati, incassando cifre colossali. Quello che Altman & C. dovrebbero dirci non è tanto che sarà inevitabile istituire un reddito universale, quanto come gli Stati potranno farsi dare da loro i soldi necessari. Ma non è realistico pensare che siano proprio loro a offrirsi di cedere ai governi una grossa fetta dei loro incassi, visto che già oggi eludono ampiamente la tassazione sui profitti di impresa.
So di essere ripetitivo, perché qui su Hic Rhodus Claudio Bezzi e io, in molte occasioni, abbiamo già scritto tutto ciò. Abbiamo affermato la necessità di riesaminare l’intero sistema di entrate fiscali e contributive, fondandolo non più sui redditi da lavoro ma (ad esempio) sul valore aggiunto, già da un articolo di oltre sei anni fa, I robot ci manderanno tutti in pensione?, nel quale anticipavamo appunto questo scenario. Da allora, nulla è accaduto dal punto di vista politico, mentre la tecnologia ha fatto i passi avanti che era logico che facesse; oggi, con ChatGPT & C., ci troviamo di fronte ai primi sistemi “robotici” (con o senza un “corpo” materiale) che hanno fatto capire al pubblico non specialista che certi lavori sono destinati sostanzialmente a sparire, o a vedere radicalmente ridimensionato il numero di persone di cui ci sarà bisogno per svolgerli.
Quindi, volendo aggiornare il titolo del nostro articolo di sei anni fa, oggi possiamo dire che conosciamo un primo tipo di sistemi a cui dovremo chiedere di pagarci la pensione: i Foundation Models come ChatGPT. Vogliamo deciderci a capire come fare?
