Una caduta di stile decisamente insolita per Obama, che è il primo sintomo che il video è falso: è un cosiddetto deepfake, ossia un video realizzato usando tecniche di intelligenza artificiale per applicare automaticamente il viso di una persona sopra una ripresa del volto di un’altra.
In questo caso il soggetto originale è il creatore del video, il regista, attore e comico premio Oscar Jordan Peele, che ha realizzato il video per mettere in guardia contro questo nuovo traguardo della falsificazione digitale, grazie al quale, o forse per colpa del quale, non possiamo più credere a quello che vediamo online se non proviene da una fonte attendibile.
You won't believe what Obama says in this video 😉 pic.twitter.com/n2KloCdF2G— BuzzFeed (@BuzzFeed) April 17, 2018
L’inganno non è ancora perfetto: i movimenti del falso Obama sono ancora leggermente incerti e innaturali, ma il video è comunque sufficiente a ingannare la maggior parte degli spettatori distratti, specialmente se visto sul piccolo schermo di uno smartphone, e la qualità non potrà che migliorare rapidamente man mano che verrà perfezionata la tecnologia. I deepfake sono la nuova frontiera delle fake news.
Sapere che esistono questi falsi video quasi perfetti e riconoscerne le imperfezioni rivelatrici, come per esempio i movimenti imprecisi della bocca, è il primo passo per evitare di esserne ingannati, ma non basta: servono degli strumenti informatici che consentano di rilevare le tracce matematiche della manipolazione. Una sorta di antivirus contro le fake news video.
Per fortuna esiste già: lo hanno presentato di recente alcuni ricercatori dell’Università Tecnica di Monaco, in Germania, e si chiama XceptionNet. Per riconoscere i video falsi usa le stesse tecniche di intelligenza artificiale usate per crearli: i ricercatori gli hanno mostrato oltre un migliaio di video e mezzo milione di immagini, indicandogli quali avevano subìto manipolazioni e quali no, e così XceptionNet ha imparato a identificare i falsi meglio di un essere umano.
Durante i test condotti dai ricercatori, guidati dal professor Matthias Niessner, le persone alle quali veniva mostrato un assortimento di video veri e falsi li classificavano correttamente nel 50% dei casi, mentre il software azzeccava la risposta giusta dall’87% al 98% dei casi, specialmente quando doveva classificare video fortemente compressi, che sono particolarmente difficili da diagnosticare per gli esseri umani.
Il software, descritto nell’articolo scientifico dei ricercatori intitolato FaceForensics: A Large-scale Video Data Set for Forgery Detection in Human Faces, non è ancora disponibile al pubblico, ma i suoi creatori si aspettano che venga integrato direttamente nelle app usate per navigare in Rete o guardare video, in modo da analizzare i video guardati e consentire all’utente di ricevere automaticamente un avviso se un’immagine o un video che sta guardando ha subìto interventi di modifica.
In attesa che arrivi sul mercato questo rivelatore di fake news video è comunque opportuno imparare ad essere scettici su quel che si vede in Rete e anche sui mezzi di comunicazione di massa tradizionali, e aguzzare la propria intelligenza naturale.
Questo articolo è basato sul testo preparato per il mio servizio La Rete in 3 minuti per Radio Inblu del 19 aprile 2018. Fonte aggiuntiva: Digital Trends, Technology Review, Svencharleer.com.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.