È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.
Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.
Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.
---
[CLIP: “Hai mai messo in dubbio la natura della tua realtà?” dalla serie TV Westworld]
Pochi giorni fa è stata presentata la nuova versione di Midjourney, un software di generazione di immagini tramite intelligenza artificiale che finalmente produce immagini fotorealistiche sintetiche sostanzialmente indistinguibili dalle fotografie reali, prive dei difetti tipici delle foto sintetiche offerte sinora.
Questo spalanca le porte a un’ondata di fake news, di notizie false accompagnate e rinforzate da immagini che sembrano documentare, con la potenza emotiva tipica delle fotografie, degli eventi che in realtà non sono mai accaduti.
Per muoverci in questo strano, nuovo mondo dovremo imparare nuovi strumenti e dovremo abituarci, come i protagonisti della serie televisiva Westworld, a mettere in dubbio anche noi la natura della nostra realtà.
Benvenuti alla puntata del 24 marzo 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Le notizie false, e le foto false usate per renderle più credibili, non sono certo una novità. Le prime fotografie alterate per “documentare” eventi mai avvenuti o per creare immagini di propaganda risalgono al 1860: due celebri foto del presidente statunitense Lincoln e del generale Grant furono fabbricate mettendo le rispettive teste sui corpi di altre persone.
Nella prima metà del secolo scorso, Stalin e Mao Tse-Tung avevano l’abitudine di far rimuovere dalle fotografie ufficiali le persone cadute in disgrazia. Governi, famiglie reali e testate giornalistiche hanno spesso pubblicato immagini falsificate o pesantemente alterate. Ma nell’epoca pre-digitale queste manipolazioni richiedevano tempo e talento e lasciavano tracce vistose, facilmente riconoscibili anche a un occhio poco allenato.
Diffondere una fake news accompagnata da immagini di supporto, insomma, comportava un investimento alla portata di pochi. Con la digitalizzazione delle immagini queste manipolazioni sono diventate meno impegnative, ma sono rimaste comunque rilevabili da un occhio attento. Risoluzioni differenti delle varie parti dell’immagine, ombre orientate in modo sbagliato, pose innaturali erano i sintomi più frequenti di queste falsificazioni.
Con il passare del tempo e l’evoluzione della tecnologia, insomma, il costo di realizzazione è sceso progressivamente, mentre il realismo è aumentato ed è diventato sempre più difficile accorgersi delle alterazioni fotografiche. Ma il costo è rimasto significativo, per cui i fabbricanti di fake news si sono dovuti accontentare di usare foto reali tolte dal loro contesto originale: abbastanza efficaci, certo, ma blande e generiche, e soprattutto smentibili usando servizi come la ricerca per immagini di Google oppure Tineye.com che ne trovino la datazione e la provenienza originaria degli elementi usati per comporre la foto artefatta.
Il recente arrivo dei generatori di immagini basati su software di intelligenza artificiale e machine learning, come Dall-E o Stable Diffusion, e delle applicazioni di deepfake ha migliorato ulteriormente il realismo ma non ha risolto la questione del costo: i deepfake ben fatti richiedono potenza di calcolo e soprattutto un archivio personalizzato di immagini della persona che si vuole simulare, mentre le immagini fotorealistiche prodotte dai generatori di immagini hanno difetti ben riconoscibili con un pizzico di allenamento, come la forma mostruosa e incoerente delle mani delle persone, gli occhi spaiati e disallineati o i denti totalmente implausibili.
Ma tutto questo è cambiato con la versione 5 del generatore di immagini Midjourney, uscita il 15 marzo scorso, che partendo da una semplice descrizione testuale della foto desiderata produce immagini fotorealistiche false con luci e ombreggiature coerenti e con mani e occhi perfetti.
È giunto alla fine il momento, atteso ma non per questo meno spiazzante, di mettere in dubbio la natura della realtà di qualunque fotografia.
Lo si è visto subito, molto concretamente, quando Elliot Higgins, fondatore e direttore del collettivo internazionale d’indagine giornalistica Bellingcat, ha pubblicato su Twitter le foto dell’arresto dell’ex presidente degli Stati Uniti Donald Trump, viste in poche ore da alcuni milioni di persone.
“Trump arrestato, ci sono le foto!”
Sì, avete sentito bene: sono state pubblicate delle foto dell’arresto di Trump, che però non è avvenuto, perlomeno al momento in cui chiudo questo podcast. Le fotografie lo mostrano attorniato da poliziotti, mentre si divincola, con una manica della giacca strappata, corre inseguito dagli agenti, e infine siede sconsolato in una cella sporca e illuminata da una luce fredda e cupa.
Ma nessuna di queste immagini è reale: sono state tutte generate da Higgins usando Midjourney versione 5.
Higgins non le ha contrassegnate sovrapponendo scritte o avvertenze per avvisare che si tratta di immagini sintetiche, anche se ha scritto nel suo tweet iniziale che si trattava di immagini generate, e per il momento è abbastanza facile capire che sono false semplicemente perché descrivono un evento che nessuna fonte giornalistica, pro o contro Trump, ha confermato. Ma per le tante persone che si “informano”, per così dire, usando soltanto i social network o i forum di “informazione alternativa”, queste fotografie rischiano di essere credibili e di soffiare sul fuoco di Qanon e di altre organizzazioni complottiste e violente.
Dal 15 marzo scorso, insomma, non possiamo più fidarci di qualunque foto trovata online, perché esiste un modo facile e a buon mercato per generare migliaia di fotografie false ma estremamente credibili di qualunque persona o evento, reale o di fantasia. Foto che non possono essere smascherate dalla ricerca per immagini, visto che non sono realizzate componendo porzioni di immagini preesistenti, e che possono essere composte con estrema precisione, su misura, per esempio per screditare un avversario politico o appunto per generare fiumi di fake news su qualsiasi argomento.
Il costo irrisorio della produzione di queste immagini, combinato con la generazione automatica di infiniti testi su misura offerta da ChatGPT e simili, rende possibile un vero e proprio artigianato della disinformazione. Chiunque, con un minimo di competenza informatica, può creare e diffondere notizie false, corredate da fotografie estremamente convincenti, e guadagnare attraverso la pubblicità online incorporata in queste notizie. Tutti possiamo diventare bugiardi bottegai delle bufale, imprenditori dell’impostura, falsari fotografici provetti che avrebbero suscitato l’invidia di tanti governi e dittatori.
In un certo senso, Midjourney 5 è la democratizzazione definitiva della disinformazione. È anche la giustificazione perfetta per chiunque venga fotografato in situazioni imbarazzanti o illegali: gli basterà dire che la foto è falsa e generata dal computer per seminare il dubbio. Per contro, potrebbe anche essere la salvezza di chi viene ricattato con la minaccia di pubblicare foto intime, perché potrebbe liquidarle come produzioni sintetiche di Midjourney.
Per il momento, non c’è assolutamente nulla che impedisca l’uso di Midjourney in questo modo. Certo, le sue condizioni d’uso vietano immagini o prompt che siano “intrinsecamente mancanti di rispetto, aggressive o altrimenti causa di abusi”, e molti social network, come TikTok, richiedono che tutte le immagini falsificate fotorealistiche siano chiaramente indicate come tali, ma si tratta solo di raccomandazioni. E ci sono servizi come HiveModeration.com che cercano di riconoscere le foto sintetiche realistiche tramite sofisticate analisi matematiche, che rivelano dettagli ed errori che sfuggono all’occhio umano, ma non sono perfetti e poche persone li conoscono e meno ancora li usano.
Ma anche se tutti i generatori di immagini riuscissero a implementare regole e filtri infallibili contro la creazione di foto false e fuorvianti, ormai questi software possono essere installati su personal computer di fascia medio-alta, sfuggendo a qualunque regola o controllo. Stable Diffusion e Dreambooth possono essere addestrati a generare, su uno di questi personal computer, immagini fotorealistiche false di qualunque persona della quale si abbia un buon numero di foto del volto.
Sono false anche le foto che faccio io?
In teoria ci sarebbe una difesa perfetta contro queste falsificazioni: controllare le fonti. Se una fotografia non è autenticata da una fonte attendibile, non va creduta. Il problema è che le fonti attendibili, come per esempio le testate giornalistiche, si sono già lasciate ingannare in passato da foto false, anche nell’era pre-Midjourney, e hanno pubblicato immagini artefatte come quelle del cadavere di Osama bin Laden o della candidata alla Casa Bianca Sarah Palin. La voglia di scoop ha avuto la meglio sul metodo giornalistico, che richiede di usare solo foto di provenienza accertata.
C’è anche un altro problema decisamente inaspettato. Se non ci si può più fidare delle foto fatte da altri, perlomeno sembra logico potersi fidare delle foto fatte da noi. Ma non è così, perché è emerso che alcuni smartphone di Samsung falsificano le fotografie. Lo fanno specificamente nel caso delle foto fatte alla Luna, che è un soggetto particolarmente difficile da fotografare senza una fotocamera professionale. Samsung, infatti, ha ammesso che alcuni suoi modelli di smartphone sostituiscono la Luna fotografata con una sua immagine migliore che hanno in memoria. E non è l’unico caso, visto che era già successo con Huawei nel 2019.
Molti smartphone, inoltre, includono filtri e correzioni automatiche di cui spesso l’utente è inconsapevole: smorzano le imperfezioni della pelle e riorientano lo sguardo, per esempio. I puristi dicono che da sempre la fotografia è finzione, ma l’idea che una fotocamera sostituisca arbitrariamente parti dell’immagine è un livello di falsificazione nuovo, che va considerato con molta cautela.
Ci salvano i video. Almeno per ora
Oltre al controllo delle fonti, c’è anche un altro rimedio al fiume di falsi reso possibile da Midjourney 5: affidarsi ai video. È relativamente facile falsificare in modo fotorealistico una singola immagine fissa, ma non è altrettanto facile falsificare un video. Naturalmente esistono da tempo gli effetti speciali e gli effetti visivi digitali, ma realizzarli in modo perfetto in un video è estremamente oneroso e limitante.
Ma anche questa barriera sta crollando rapidamente. Runway Research ha presentato da poco Gen-2, un servizio online che genera interi video partendo da una descrizione testuale oppure da una singola foto. Per ora è limitato a durate di tre secondi ed è abbastanza rudimentale, ma lo era anche Midjourney solo pochi mesi fa. E un altro software, ModelScope, fa la stessa cosa di Gen-2 ma su un buon personal computer.
Gen-2 e ModelScope potrebbero essere l’inizio di un nuovo modo di fare cinema, nel quale non servono più budget colossali, scenografie e attori, ma solo e soprattutto idee interessanti. Ma l’esistenza di questi software per i falsi video low-cost significa che anche i video non possono essere più considerati prova oggettiva, a meno che siano autenticati da fonti estremamente attendibili e magari multiple.
Mai come oggi, insomma, servono persone esperte e affidabili che sappiano usare gli strumenti informatici moderni per verificare le notizie e le immagini che le accompagnano; servono giornalisti e redazioni al passo con i tempi digitali sempre più straordinari. Altrimenti anche noi, come gli androidi di Westworld, non sapremo più cosa è reale e cosa è sintetico, e dovremo mettere in dubbio la natura della nostra realtà.
Fonte aggiuntiva: Ars Technica.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.