Cerca nel blog

2022/07/01

FBI avvisa: occhio ai deepfake nei colloqui di lavoro online

Questo articolo è disponibile anche in versione podcast audio.

Capita sempre più spesso di fare riunioni e incontri in videoconferenza, a distanza, e anche i colloqui di lavoro, per selezionare candidati per un impiego, stanno vivendo la stessa tendenza ad avvenire online invece che di persona. Ma l’FBI ha pubblicato un avvertimento che segnala un aumento parallelo dell’uso di dati personali rubati e di deepfake, ossia di immagini video false generate in tempo reale, nell’ambito di questi colloqui. In pratica il candidato si spaccia per qualcun altro e mostra, durante il colloquio, immagini di un volto che non è il suo o fa sentire la voce di qualcun altro.

I colloqui di lavoro falsificati, dice l’agenzia statunitense, riguardano offerte per impieghi che verranno svolti da remoto o da casa, per cui è possibile che il datore di lavoro non incontrerà mai di persona il lavoratore. In particolare, questi colloqui deepfake avvengono quando il lavoro riguarda il settore informatico e darà quindi accesso a dati personali di clienti, dati finanziari, database aziendali o informazioni tecniche confidenziali.

Questo suggerisce che il movente di queste falsificazioni sia l’accesso fraudolento a questi dati preziosi, spesso a scopo di spionaggio o sabotaggio, come segnalato anche da altre agenzie governative statunitensi a maggio scorso.

Alcuni stati, secondo queste segnalazioni, stanno formando numerosi informatici che poi fingono di risiedere in paesi fidati usando VPN e documenti d’identificazione rubati, usando vari software per alterare voce e video per sembrare affidabili e rassicuranti nei colloqui di selezione fatti attraverso le normali piattaforme di offerta e ricerca di lavoro, e si fanno assumere dalle aziende per poi trafugarne dati o facilitare intrusioni da parte di loro complici.

L’FBI, le altre agenzie statunitensi e gli esperti del settore raccomandano alcune semplici verifiche. I dettagli della storia personale del candidato, come per esempio gli studi svolti, il luogo dove dichiara di risiedere, sono coerenti? Cosa succede se lo si chiama a sorpresa in videochiamata? Come reagisce alla proposta di spedire un plico all’indirizzo che ha dichiarato sui documenti che ha fornito? Se si tratta di un impostore, queste situazioni lo metteranno in seria difficoltà.

Le autorità e gli esperti segnalano anche alcuni trucchi per riconoscere un deepfake video o fotografico durante una videochiamata: per esempio, i gesti e i movimenti delle labbra della persona che si vede in video non corrisponderanno completamente al parlato. Oppure suoni inattesi, come un colpo di tosse o uno starnuto, non verranno falsificati correttamente dai programmi per creare deepfake in tempo reale.

L’MIT Media Lab ha creato una guida e un sito, Detect Fakes, che consente a ciascuno di valutare la propria capacità di riconoscere immagini personali falsificate e consiglia altri trucchi per rivelare una falsificazione: per esempio, guardare le guance e la fronte della persona che appare in video, perché se la pelle di queste zone è troppo liscia o troppo rugosa rispetto al resto del volto è probabile che si tratti di un falso. Si possono anche guardare le ombre della scena, che spesso nei deepfake non sono coerenti, oppure gli occhiali, che spesso hanno riflessi eccessivi, o ancora la barba o le basette o i nei, che i deepfake sbagliano facilmente. Un altro trucco è guardare fissa la persona negli occhi per vedere se sbatte le palpebre o no: anche questo è un errore frequente dei software che alterano il volto.

Cimentatevi, insomma, con il test dell’MIT Media Lab, che trovate presso detectfakes.media.mit.edu. Fra l’altro, saper riconoscere un video falso potrebbe servirvi anche fuori dell’ambito di lavoro, dato che anche molti truffatori online in campo privato usano queste stesse tecniche per fingere di essere persone seducenti e corteggiatrici per poi spingere le vittime a mostrarsi in video in atteggiamenti estremamente ricattabili.

Fonti aggiuntive: Gizmodo, Graham Cluley, Gizmodo.

Nessun commento: