Colpo di stato in Francia: questa è la clamorosa notizia che poche settimane fa circolava su Facebook, accompagnata e sostenuta da un breve video in cui una giornalista francese forniva i primi, pochi dettagli sui fatti. Un evento tanto sorprendente quanto importante, che ha ovviamente attirato un’enorme quantità di attenzione da parte del pubblico, sia in Francia che all’estero. In molti si sono quindi interrogati sull’identità dei mandanti di questo coup d’état: può essere stato l’esercito? Un tentativo da parte di una potenza straniera di destabilizzare l’Europa? Parte del piano degli Illuminati per conquistare il mondo in nome dei loro padroni alieni? La risposta, in realtà, è molto più semplice: l’autore del colpo di stato è nientepopodimeno che un sistema di intelligenza artificiale. Fortunatamente, l’IA in questione non ha alcuna intenzione di costruire un esercito di Terminator vestiti con la maglietta a righe e il basco per sterminare l’umanità – e, in effetti, non è neanche particolarmente interessata a governare la Francia. È infatti bastato un controllo un po’ più attento per rivelare un fatto di fondamentale importanza: il video su cui si fondava l’intera storia era stato realizzato da un adolescente del Burkina Faso, grazie all’ausilio di un comune sistema di intelligenza artificiale generativa.
Si tratta di una storia che ha dell’incredibile, ma che al contempo mette perfettamente in luce quanto sia diventata grave la questione delle fake news in questi ultimi anni: un adolescente, un programma per computer, i social, e un pizzico di stupidità umana. Questi pochi, semplici ingredienti sono ormai più che sufficienti per creare e diffondere notizie false capaci di ingannare centinaia di persone. Un secolo fa, per spargere una storia del genere e renderla credibile sarebbe stato necessario un considerevole investimento di tempo, denaro e competenze specializzate – un compito non impossibile, ma certamente né semplice né veloce. Al giorno d’oggi, invece, gli sviluppi nell’ambito della comunicazione e l’esistenza di internet permettono alle fake news di diffondersi molto più rapidamente su distanze molto più ampie, raggiungendo un pubblico che può addirittura essere globale; al tempo stesso, la creazione di falsi realistici è diventata sempre più facile nel corso degli anni, al punto che i sistemi di GAI (generative AI) possono non solo realizzare immagini e video capaci di ingannare l’utente medio, ma risultano anche essere estremamente accessibili e facili da utilizzare.
Non dovrebbe quindi sorprendere che, di fronte ad una situazione del genere, le autorità di vari paesi abbiano iniziato a sviluppare delle pratiche volta a combattere la diffusione delle fake news. Tra queste, una delle più basilari, ma anche più importanti, è la formazione nell’ambito della “media literacy”, l’alfabetizzazione mediatica. Questa consiste, sostanzialmente, nella capacità di consultare, analizzare e valutare i contenuti mediatici (siano essi articoli, servizi televisivi, o video trovati su internet) mantenendo sempre una visione critica, che permetta di riconoscere la presenza di eventuali bias, disinformazione o propaganda. In altre parole, si potrebbe dire che si tratta di una formazione su come riconoscere quando i fatti che ci vengono presentati dai mass media sono reali e quando sono manipolati o finti. Come si può quindi immaginare, la capacità di identificare i contenuti AI-generated risulta essere una delle competenze più utili ed importanti in questo campo, ed è proprio su tale argomento che vorrei andare a soffermarmi in questo articolo: come si fa a riconoscere un deepfake?
Continua a leggere