Come chi ci segue sa, abbiamo più volte parlato, qui su Hic Rhodus, di disinformazione e di fake news. Non è necessario far parte di qualche organizzazione di intelligence per sapere, se lo si vuol sapere, che tutti noi, utilizzatori di Internet e dei Social, siamo esposti a numerose forme di propaganda manipolativa mirata, sia a scopi commerciali (come evoluzione genetica della pubblicità tradizionale) sia a scopi politici in senso lato. A quest’ultimo proposito, abbiamo anche sottolineato che accanto a forme più “artigianali” e limitate di propaganda, magari gestite da semplici agenzie di comunicazione e social media manager, agiscono veri e propri equivalenti di “truppe mercenarie”, in grado di sviluppare campagne a lungo termine con lo scopo di incidere in modo strutturale nel dibattito pubblico (almeno dove il dibattito pubblico esiste) e quindi, in ultima analisi, nella dinamica democratica (almeno dove una forma di democrazia c’è). Lo si è visto già anni fa, con la Brexit e l’elezione di Trump, favorita dalle strategie (e dai reati) di Cambridge Analytica, ma l’arma della disinformazione, ampiamente utilizzata in particolare dalla Russia contro la società occidentale, non è usata solo per alterare i risultati delle elezioni, ma quotidianamente per dividere e polarizzare l’opinione pubblica su temi critici. Non a caso, a diffondere oggi menzogne filo-russe sono gli stessi canali che ieri diffondevano menzogne anti-vax, e a restarne vittime propagandando assurdità filoputiniane sono infatti oggi le stesse persone che ieri preannunciavano stragi tra coloro che si vaccinavano.
Come si combatte la disinformazione? Naturalmente controllando le notizie che si leggono, verrebbe da dire. Ma questo è più facile a dirsi che a farsi, anche considerato che, tornando all’esempio del conflitto russo-ucraino, gli ucraini raccontano quasi altrettante menzogne dei russi, e i nostri organi di informazione fanno pochissimo per sottoporre le “notizie” a una verifica critica. Personalmente, confesso che durante tutto il corso della guerra non ho seguito un solo telegiornale, e se voglio informarmi ricorro a fonti private, come Limes o il canale YouTube Parabellum, eccezionalmente accurato nel riferire sull’andamento delle operazioni sul campo. Eppure anche queste fonti sono indirette, e utilizzano altre fonti, spesso non istituzionali, per raccogliere informazioni; alla fine di questa catena, spesso la documentazione primaria è un video. Ormai nulla ci sembra vero se non c’è un’immagine che lo attesti: pics or it didn’t happen, si dice, o meglio ancora video or it didn’t happen. Per credere vogliamo vedere con i nostri occhi.
Ebbene, dobbiamo accettare l’idea che ormai, o almeno prestissimo, le immagini non saranno più attendibili delle parole.
L’avvento dell’Intelligenza Artificiale applicata all’elaborazione di immagini, infatti, non si limita più ai fotoritocchi. Ormai anche chi non è un professionista dell’elaborazione di video può, usando software poco costosi o addirittura gratuiti, creare quelli che si chiamano deepfakes, video manipolati, in cui ad esempio le fattezze di un protagonista vengono sostituite con quelle di qualsiasi altra persona. In aggiunta, più recentemente, sono stati sviluppati software che, dopo aver “ascoltato” un campione di voce umana anche di pochi secondi, sono in grado di sintetizzare una voce estremamente simile e colorirla con le più diverse emozioni, ovviamente in funzione del testo che l’utilizzatore del software decide di far “leggere” al software (un esempio molto convincente, anche se ancora sperimentale, è VALL-E, di cui si può apprezzare una demo qui). Un altro filone dell’utilizzo dell’Intelligenza Artificiale a fini potenzialmente ingannevoli sono i software che creano immagini fittizie a partire da una richiesta testuale, come ad esempio Craiyon, che si può provare qui o l’app mobile Wonder.
Tutto ciò non è completamente nuovo, e certamente chi dispone della tecnologia di punta e di grandi mezzi (come le grandi media company o i colossi del web, e naturalmente i governi) ha certamente accesso a strumenti molto più sofisticati. Tuttavia, io sono abbastanza impressionato dal fatto che, praticamente, se non oggi tra pochissimo qualunque persona sufficientemente abile e informata potrà produrre video totalmente falsi che agli occhi di un non addetto ai lavori appariranno indistinguibili da quelli autentici. A parte i rischi privati (come la diffusione di deepfake porno o violenti per colpire singole persone), potremmo trovarci a osservare il Presidente degli Stati Uniti Biden che, dalla sala ovale e con voce concitata, invita i suoi concittadini ad assalire le ambasciate e i consolati russi, oppure potremmo vedere inesistenti carri armati cinesi devastare villaggi indiani in prossimità del confine.
Ripeto, è ovvio che già oggi se un governo volesse creare un video deepfake di questo tipo potrebbe farlo, e che personaggi come Biden potrebbero essere impersonati anche semplicemente da attori umani adeguatamente truccati. Il fatto è che la disinformazione è un’arma potente, alla quale moltissimi hanno dimostrato di essere vulnerabili; una cosa è sapere che cento persone, al vertice di organizzazioni che si controllano a vicenda, dispongono di un’arma potente e sofisticata, una cosa diversa è sapere che a usarla possono essere centinaia di milioni di persone sconosciute. Mi sentirei di affermare praticamente con certezza che questo tipo di “arma” verrà usata, e che per definizione verrà usata contro di noi, ossia per condizionare le opinioni e i comportamenti delle persone qualsiasi.
La conclusione è facile e contemporaneamente destabilizzante: ormai non possiamo più credere a ciò che vediamo e sentiamo con i nostri occhi e le nostre orecchie, a meno di essere fisicamente presenti a un evento. Dato che sempre più la nostra comprensione del mondo è basata su eventi a cui non possiamo essere fisicamente presenti, è evidente che l’immagine del mondo che sarà a fondamento delle nostre scelte rischia in futuro di essere ancora meno attendibile di oggi, e di essere manipolata non solo dai “soggetti istituzionali” verso cui abbiamo imparato ad applicare un sano scetticismo, ma da chiunque. Difenderci non sarà facile, ma almeno cominciamo dal comprendere che difendersi sarà necessario.
L’immagine di copertina è come un software di Intelligenza Artificiale ha raffigurato un ipotetico selfie scattato alla corte di Francia nel Settecento (crediti nell’immagine).