skip to main | skip to sidebar
12 commenti

Riconoscere i video manipolati con l’Intelligenza artificiale

Sta circolando su Internet un video nel quale l’ex presidente degli Stati Uniti Barack Obama, dalla Casa Bianca, fa un discorso formale per avvisare che “stiamo entrando in un’era nella quale i nostri nemici possono far sembrare che chiunque abbia detto qualunque cosa in un qualunque momento” e poi usa un termine volgare per definire l’attuale presidente Trump.

Una caduta di stile decisamente insolita per Obama, che è il primo sintomo che il video è falso: è un cosiddetto deepfake, ossia un video realizzato usando tecniche di intelligenza artificiale per applicare automaticamente il viso di una persona sopra una ripresa del volto di un’altra.

In questo caso il soggetto originale è il creatore del video, il regista, attore e comico premio Oscar Jordan Peele, che ha realizzato il video per mettere in guardia contro questo nuovo traguardo della falsificazione digitale, grazie al quale, o forse per colpa del quale, non possiamo più credere a quello che vediamo online se non proviene da una fonte attendibile.



L’inganno non è ancora perfetto: i movimenti del falso Obama sono ancora leggermente incerti e innaturali, ma il video è comunque sufficiente a ingannare la maggior parte degli spettatori distratti, specialmente se visto sul piccolo schermo di uno smartphone, e la qualità non potrà che migliorare rapidamente man mano che verrà perfezionata la tecnologia. I deepfake sono la nuova frontiera delle fake news.

Sapere che esistono questi falsi video quasi perfetti e riconoscerne le imperfezioni rivelatrici, come per esempio i movimenti imprecisi della bocca, è il primo passo per evitare di esserne ingannati, ma non basta: servono degli strumenti informatici che consentano di rilevare le tracce matematiche della manipolazione. Una sorta di antivirus contro le fake news video.

Per fortuna esiste già: lo hanno presentato di recente alcuni ricercatori dell’Università Tecnica di Monaco, in Germania, e si chiama XceptionNet. Per riconoscere i video falsi usa le stesse tecniche di intelligenza artificiale usate per crearli: i ricercatori gli hanno mostrato oltre un migliaio di video e mezzo milione di immagini, indicandogli quali avevano subìto manipolazioni e quali no, e così XceptionNet ha imparato a identificare i falsi meglio di un essere umano.

Durante i test condotti dai ricercatori, guidati dal professor Matthias Niessner, le persone alle quali veniva mostrato un assortimento di video veri e falsi li classificavano correttamente nel 50% dei casi, mentre il software azzeccava la risposta giusta dall’87% al 98% dei casi, specialmente quando doveva classificare video fortemente compressi, che sono particolarmente difficili da diagnosticare per gli esseri umani.

Il software, descritto nell’articolo scientifico dei ricercatori intitolato FaceForensics: A Large-scale Video Data Set for Forgery Detection in Human Faces, non è ancora disponibile al pubblico, ma i suoi creatori si aspettano che venga integrato direttamente nelle app usate per navigare in Rete o guardare video, in modo da analizzare i video guardati e consentire all’utente di ricevere automaticamente un avviso se un’immagine o un video che sta guardando ha subìto interventi di modifica.

In attesa che arrivi sul mercato questo rivelatore di fake news video è comunque opportuno imparare ad essere scettici su quel che si vede in Rete e anche sui mezzi di comunicazione di massa tradizionali, e aguzzare la propria intelligenza naturale.


Questo articolo è basato sul testo preparato per il mio servizio La Rete in 3 minuti per Radio Inblu del 19 aprile 2018. Fonte aggiuntiva: Digital Trends, Technology Review, Svencharleer.com.
Invia un commento
I commenti non appaiono subito, devono essere tutti approvati manualmente da un moderatore a sua discrezione: è scomodo, ma è necessario per mantenere la qualità dei commenti e tenere a bada scocciatori, spammer, troll e stupidi.
Inviando un commento date il vostro consenso alla sua pubblicazione, qui e/o altrove.
Maggiori informazioni riguardanti regole e utilizzo dei commenti sono reperibili nella sezione apposita.
NOTA BENE. L'area sottostante per l'invio dei commenti non è contenuta in questa pagina ma è un iframe, cioè una finestra su una pagina di Blogger esterna a questo blog. Ciò significa che dovete assicurarvi che non venga bloccata da estensioni del vostro browser (tipo quelle che eliminano le pubblicità) e/o da altri programmi di protezione antimalware (tipo Kaspersky). Inoltre è necessario che sia permesso accettare i cookie da terze parti (informativa sulla privacy a riguardo).
Commenti
Commenti (12)
Generative Adversatial Networks are becoming really adversarial!
certo che buzzfeed che fa la lezione sulle fonte di informazione credibili...
il problema è che anche video veri contro regimi o pseudo regimi possono essere definiti deepfake in un mondo in cui tutto può essere fatto al computer in cosa crederemo?
Quando leggo queste cose, mi sento sempre più vicino al momento in cui una scena come lo scontro tra Ben Richards e Capitan Freedon (The Running Man - L'Implacabile) diventerà la prassi nelle trasmissioni televisive
Ditelo a quelli delle Iene, i classici incapaci di distinguere fra fake e verità...
Considerando la quantità di video che viene caricata ogni giorno su una piattaforma come youtube e considerando il fatto che stiamo parlando di reti neurali che richiedono potenza di calcolo elevate un controllo automatico da parte delle piattaforme di video sharing richiederebbe investimenti enormi e non credo sia fattibile... se invece il controllo viene fatto in locale sui dispostovi degli utenti la durata della batteria cala drasticamente, già si fatica ad arrivare a fine giornata, immaginatevi con un'app che controlla ogni singolo video che viene caricato.
Le posso chiedere di debunkare questa faccenda della sabbia chimica plz https://www.vice.com/it/article/wj7ynb/pioggia-di-sabbia-italia-perche
Si riferisce a Killmonger di Black Panther? Geniale!
Ottimo articolo da condividere il più possibile, specie in Italia dove penso pochi abbiano sentito parlare dei deepfakes. Oltre ai suggerimenti riferiti nell'articolo per individuare video falsi, vorrei aggiungere che a me è parso subito molto strano il contesto del video, per via delle 2 bandiere nello sfondo che di solito accompagnano i discorsi presidenziali.
AndreaG,

ho rimosso il tuo commento. Se vuoi fare spamming politico-economico, vai altrove. Grazie.
@GG
le reti neurali richiedono potenza di calcolo per l'addestramento ma una volta addestrate la potenza richiesta è ridotta.
@Scatola Grande
Stiamo parlando di analisi di video ad alta risoluzione tramite reti neurali... la potenza di elaborazione richiesta non la vedo tanto ridotta