Colpo di stato in Francia: questa è la clamorosa notizia che poche settimane fa circolava su Facebook, accompagnata e sostenuta da un breve video in cui una giornalista francese forniva i primi, pochi dettagli sui fatti. Un evento tanto sorprendente quanto importante, che ha ovviamente attirato un’enorme quantità di attenzione da parte del pubblico, sia in Francia che all’estero. In molti si sono quindi interrogati sull’identità dei mandanti di questo coup d’état: può essere stato l’esercito? Un tentativo da parte di una potenza straniera di destabilizzare l’Europa? Parte del piano degli Illuminati per conquistare il mondo in nome dei loro padroni alieni? La risposta, in realtà, è molto più semplice: l’autore del colpo di stato è nientepopodimeno che un sistema di intelligenza artificiale. Fortunatamente, l’IA in questione non ha alcuna intenzione di costruire un esercito di Terminator vestiti con la maglietta a righe e il basco per sterminare l’umanità – e, in effetti, non è neanche particolarmente interessata a governare la Francia. È infatti bastato un controllo un po’ più attento per rivelare un fatto di fondamentale importanza: il video su cui si fondava l’intera storia era stato realizzato da un adolescente del Burkina Faso, grazie all’ausilio di un comune sistema di intelligenza artificiale generativa.
Si tratta di una storia che ha dell’incredibile, ma che al contempo mette perfettamente in luce quanto sia diventata grave la questione delle fake news in questi ultimi anni: un adolescente, un programma per computer, i social, e un pizzico di stupidità umana. Questi pochi, semplici ingredienti sono ormai più che sufficienti per creare e diffondere notizie false capaci di ingannare centinaia di persone. Un secolo fa, per spargere una storia del genere e renderla credibile sarebbe stato necessario un considerevole investimento di tempo, denaro e competenze specializzate – un compito non impossibile, ma certamente né semplice né veloce. Al giorno d’oggi, invece, gli sviluppi nell’ambito della comunicazione e l’esistenza di internet permettono alle fake news di diffondersi molto più rapidamente su distanze molto più ampie, raggiungendo un pubblico che può addirittura essere globale; al tempo stesso, la creazione di falsi realistici è diventata sempre più facile nel corso degli anni, al punto che i sistemi di GAI (generative AI) possono non solo realizzare immagini e video capaci di ingannare l’utente medio, ma risultano anche essere estremamente accessibili e facili da utilizzare.
Non dovrebbe quindi sorprendere che, di fronte ad una situazione del genere, le autorità di vari paesi abbiano iniziato a sviluppare delle pratiche volta a combattere la diffusione delle fake news. Tra queste, una delle più basilari, ma anche più importanti, è la formazione nell’ambito della “media literacy”, l’alfabetizzazione mediatica. Questa consiste, sostanzialmente, nella capacità di consultare, analizzare e valutare i contenuti mediatici (siano essi articoli, servizi televisivi, o video trovati su internet) mantenendo sempre una visione critica, che permetta di riconoscere la presenza di eventuali bias, disinformazione o propaganda. In altre parole, si potrebbe dire che si tratta di una formazione su come riconoscere quando i fatti che ci vengono presentati dai mass media sono reali e quando sono manipolati o finti. Come si può quindi immaginare, la capacità di identificare i contenuti AI-generated risulta essere una delle competenze più utili ed importanti in questo campo, ed è proprio su tale argomento che vorrei andare a soffermarmi in questo articolo: come si fa a riconoscere un deepfake?
Limitazioni umane e sistemi imperfetti: è davvero possibile identificare i contenuti AI-generated?
Prima di iniziare, dovremmo però porci una domanda: è davvero possibile stabilire con assoluta sicurezza se un contenuto sia stato creato da un sistema di intelligenza artificiale? La risposta non è infatti scontata: come dimostra la storia del (finto) colpo di stato in Francia, video e immagini generati dall’IA possono raggiungere livelli qualità e realismo che li rendono sorprendentemente difficili da individuare. Fortunatamente, un falso perfetto non esiste, e un’attenta osservazione può spesso rivelare alcuni piccoli dettagli ed incongruenze che ne tradiscono l’origine. Qualora l’occhio (o l’orecchio) umano non fosse sufficiente, si può poi fare affidamento su alcuni programmi creati appositamente per riconoscere i deepfake.
Detto questo, è però opportuno notare che ci sono alcuni caveat. Per prima cosa bisogna ricordare che la certezza assoluta non esiste: le discrepanze possono risultare troppo difficili da individuare per l’essere umano, e gli strumenti, per quanto più efficaci, possono comunque dare risultati errati. In termini pratici, ciò vuol dire che non è sempre possibile identificare un contenuto AI-generated: alcuni di essi potrebbero essere in grado di passare anche un esame attento. A tal riguardo dobbiamo poi evidenziare che l’intelligenza artificiale è una tecnologia in continua evoluzione, che diventa più capace e potente ogni giorno che passa. Ovviamente questo vale anche per i sistemi generativi, i cui prodotti diventano sempre più difficili da distinguere da quelli reali: non è da escludersi che essi possano raggiungere un punto in cui l’essere umano non sia più capace di discriminare tra i due, costringendoci così ad affidarci a programmi che, peraltro, devono essere continuamente aggiornati per rimanere efficaci. Infine, è opportuno evidenziare l’importanza del pensiero critico nel riconoscimento dei deepfake. Torniamo all’esempio del video sul colpo di stato francese: uno dei fattori che ne ha più contribuito alla diffusione è infatti stata la sua acritica accettazione da parte di molti utenti, che lo hanno preso per “vero” senza preoccuparsi di valutarne la validità. Questa fin troppo comune tendenza ad accettare fatti ed informazioni trovate su internet senza verificarne la credibilità è esattamente il contrario di quanto richiesto dalla media literacy: per poter individuare un contenuto creato artificialmente come tale bisogna innanzitutto avere dei dubbi sul fatto che esso sia reale.
Il vademecum dell’utente critico
Fatta questa premessa, possiamo adesso andare ad esaminare la questione di come si faccia a stabilire se un contenuto sospetto è effettivamente un deepfake. Fortunatamente, il processo è in realtà piuttosto semplice: basta riuscire ad individuare uno (o, per essere sicuri, più di uno) dei tratti tipici dei materiali AI-generated. In particolare, i dettagli a cui bisognerebbe fare attenzione includono:
- Il contenuto in generale: video, testi ed immagini creati dai sistemi generativi includono spesso delle “stranezze” che possono risultare piuttosto evidenti ad uno sguardo critico. Comportamenti inaspettati o fuori luogo, mancanza di reazioni da parte delle persone in scena, passaggi logici privi di senso, o elementi incoerenti e assurdi sono tutti piuttosto frequenti;
- Mani e faccia: molte IA generative faticano a rendere correttamente queste parti del corpo, soprattutto per le figure non in primo piano. Mani deformate o parzialmente fuse con ciò che toccano, troppe o troppe poche dita, occhi asimmetrici e altri dettagli come orecchie, capelli ed eventuali accessori sono ottimi indicatori di un’immagine o un video creato artificialmente;
- La presenza di altre aberrazioni: quelle delle mani e del viso sono le più comuni e facili da individuare, ma non sono le uniche, soprattutto se l’immagine contiene più persone in contatto fisico o collocate sullo sfondo. Nel primo caso, ad esempio, due figure potrebbero avere i loro vestiti o anche parti del corpo fuse insieme, mentre nel secondo non è raro trovare volti appena abbozzati, molto sfocati, o addirittura completamente errati. Più in generale, può essere una buona idea osservare lo sfondo, in quanto una delle aree in cui le aberrazioni grafiche sono più frequenti;
- L’illuminazione: rendere correttamente luci e ombre è sorprendentemente difficile, motivo per cui vale la pena controllare se sono presenti inconsistenze tra le fonti di luce e le ombre proiettate, situazioni in cui l’illuminazione appare innaturale, o anche semplicemente impossibile;
- I movimenti della bocca, degli occhi e del corpo: in alcuni casi è infatti possibile individuare un deepfake grazie alla presenza di movimenti poco naturali. Per essere più precisi, i principali punti critici sono la sincronizzazione tra il muoversi delle labbra e il parlato, il battito delle palpebre e lo spostarsi dello sguardo. Altri indicatori a cui fare attenzione includono invece posture ed espressioni facciali troppo rigide o esagerate e movimenti troppo bruschi, troppo fluidi o a scatti;
- L’audio: errori e stranezze possono emergere anche nel parlato e nei suoni presenti in un video. Riverberi e distorsioni, toni di voce troppo alti o troppo bassi o che presentano cambiamenti ripetuti e improvvisi, e parole pronunciate in modo strano o con una velocità insolita possono essere segnali che ci si trova davanti ad un audio creato da un computer. A ciò si devono poi aggiungere i suoni di fondo, che possono risultare incoerenti con la scena mostrata, eccessivamente deboli, o anche completamente assenti;
- Tono e stile: in un testo, i principali indizi che possono tradirne l’origine sono uno stile eccessivamente generico ed uniforme, il tono piatto e privo di emozioni o personalità, e l’uso ripetitivo di certe formule e frasi di transizione, senza variazioni o cambiamenti, accompagnato da un lessico limitato;
- Argomentazioni vaghe ed allucinazioni: più difficili da notare un lettore poco esperto dell’argomento, ma non per questo meno importanti, sono poi i contenuti del discorso. I testi AI-generated tendono infatti a proporre analisi e argomentazioni superficiali, prive di creatività, di intuizioni di valore o di interpretazioni alternative, a cui si aggiungono poi una tendenza a ripetere in modo esasperato parole e concetti chiave e le cosiddette “allucinazioni”, ossia informazioni del tutto inventate, ma presentate come se fossero vere. Infine, vale anche la pena di notare che i testi più lunghi, soprattutto se di tipo narrativo, possono presentare errori di coerenza, contraddizioni e passaggi logici privi di senso.
Dubito, ergo sum: il ruolo del pensiero critico nell’era dell’intelligenza artificiale
Come si può quindi vedere, i falsi creati dall’intelligenza artificiale sono ancora ben lontani dall’essere assolutamente irriconoscibili – individuarli non è facile, certamente, ma non è neanche impossibile. Un occhio (o orecchio) attento, la conoscenza di cosa bisogna andare a cercare, e magari un po’ di esperienza sono sufficienti ad identificare molti deepfake, e nei casi in cui non sono abbastanza si può sempre affidarsi alla tecnologia. I metodi, quindi, esistono… e sono, purtroppo, anche completamente inutili se non accompagnati dalla capacità di pensare in modo critico. A questo tema ho già accennato, ma penso che sia necessario ribadirlo e approfondirlo. Il pensiero critico è infatti fondamentale per risolvere il problema delle fake news senza ricadere in uno di due errori: la passiva accettazione e il cieco rifiuto. Da un lato l’incapacità di prendere in considerazione la possibilità che una notizia sia falsa, che ci porterebbe ad accettare placidamente tutto ciò che vediamo su internet, e dall’altro una consapevolezza eccessiva di tale rischio, che ci indurrebbe a dubitare della possibilità di poter trovare qualcosa di vero in mezzo ad un oceano di bufale. Una visione forse troppo pessimistica ed esagerata, ma fondata su preoccupazioni reali.
Da questo punto di vista, una “cultura del dubbio” potrebbe quindi essere davvero preziosa. Non un dubbio assoluto e distruttivo, che, come abbiamo visto, è un estremo tanto pericoloso quanto la completa mancanza di dubbi, ma un dubbio moderato e costruttivo, disposto a farsi domande, a cercare risposte e, eventualmente, ad accettare o rifiutare una notizia sulla base di un’analisi concreta delle sue origini e credibilità.
Lascia un commento