2023/06/29

Podcast RSI - Story: Gli orrori annunciati dell’IA diventano realtà. Come reagire?

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.

Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Mikko Hyppönen: “Fake text, fake speech, fake images, fake video, and fake voices”]

Quando sono stati annunciati pubblicamente i primi software di intelligenza artificiale capaci di generare immagini e testi, per molti imprenditori la reazione istintiva è stata un entusiasmo sconfinato di fronte all’idea di poter tagliare i costi di produzione dei contenuti mettendo al lavoro questi nuovi servitori digitali al posto delle persone. Ma per molti altri, anche non esperti di informatica, la reazione è stata ben diversa. Paura, pura e semplice. Paura per il proprio posto di lavoro e paura per i possibili abusi, facilmente prevedibili, di questa tecnologia.

Questa è la storia di come quella paura del possibile è oggi diventata reale, raccontata attraverso tre casi recenti che sono un campanello d’allarme urgente. Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori. La politica nazionale e internazionale si china su queste questioni con i suoi tempi inevitabilmente lunghi, ma nel frattempo i danni personali e sociali sono già gravi e tangibili, ed è decisamente il momento di chiedersi se si possa fare qualcosa di più di un coro tedioso di meritatissimi “Ve l’avevamo detto”.

Benvenuti alla puntata del 30 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – e questa settimana inquietanti – dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Deepfake per furti ed estorsioni

Già nel 2017 gli utenti comuni si divertivano a usare app come FaceApp per alterare il proprio volto, e nel 2019 erano incantati dall’idea di inserirsi al posto agli attori negli spezzoni di film celebri con app come Zao, che davano risultati in pochi secondi, ma nel frattempo molti si ponevano il problema dei possibili abusi di queste tecnologie nascenti di deepfake basate sull’intelligenza artificiale, soprattutto in termini di privacy e di sorveglianza di massa.

Il crimine informatico organizzato, invece, stava aspettando il passo successivo: i deepfake in tempo reale, che oggi sono facilmente disponibili su un normale personal computer dotato di una scheda grafica di buona potenza. Già da alcuni anni è possibile alterare istantaneamente la propria voce in modo da imitare quella di qualunque altra persona di cui si abbia un breve campione. E questa produzione in tempo reale cambia tutto, perché rende possibile truffe atroci alle quali siamo impreparati.

Immaginate di ricevere una telefonata nella quale vostro figlio, o il vostro partner, vi dice con tono disperato che è coinvolto in un incidente stradale ed è in arresto, e poi passa la linea a un agente di polizia che spiega che è possibile pagare una cauzione e fornisce le istruzioni per farlo. Questa è la tecnica usata per esempio da un ventitreenne, Charles Gillen, in Canada, che nel giro di soli tre giorni, all’inizio di quest’anno, è riuscito a farsi consegnare l’equivalente di circa 135.000 franchi svizzeri o euro da otto vittime prima di essere arrestato insieme a un complice. Tutte le vittime hanno detto di aver riconosciuto chiaramente la voce del proprio familiare al telefono.

La prima frode di questo genere, però, risale al 2019, quando un dirigente di un’azienda britannica nel settore energetico fu ingannato da un deepfake della voce del proprio direttore, di cui riconobbe anche il lieve accento tedesco, ed eseguì il suo ordine di trasferire immediatamente 220.000 euro sul conto di un asserito fornitore, dal quale poi i soldi presero il volo.

Questa tecnica richiede tre ingredienti: un campione della voce della persona da imitare, facilmente estraibile da qualunque video o messaggio vocale postato su Internet; il software di intelligenza artificiale o machine learning per alterare la propria voce in tempo reale, altrettanto facile da procurare; e delle informazioni personali dettagliate e attendibili sulla persona che si vuole simulare.

Il 2023 sembra essere l’anno di svolta per queste frodi: secondo Sumsub, società specializzata nel settore della verifica di identità online, il numero dei deepfake rivelati nel primo trimestre di quest’anno ha superato del 10% quello di tutto il 2022. E gli esperti sospettano che furti massicci di dati personali attendibili, come quello messo a segno dal gruppo criminale informatico russofono Cl0p, descritto nella puntata precedente del Disinformatico, servano per alimentare proprio questo tipo di falsificazione dell’identità [visto che stranamente Cl0p non ha inviato richieste di riscatto alle aziende di cui ha saccheggiato gli archivi]


Questa situazione mette in crisi qualunque banca o pubblica amministrazione che si appoggi all’identificazione via Internet per gestire i conti o le posizioni degli utenti: oggi va molto di moda permettere alle persone di aprire e gestire un conto corrente o interrogare un servizio sanitario tramite telefonino, usando un video in tempo reale per verificare l’identità invece di presentarsi a uno sportello, perché questo riduce i costi per l’azienda ed è più comodo per l’utente.

Ma di fronte ai deepfake video in tempo reale questo risparmio e questa comodità vanno rimessi seriamente in discussione, e per difendersi da truffe come queste dobbiamo tutti imparare a non fidarci dei nostri sensi e dei nostri istinti se c’è di mezzo un dispositivo elettronico, e a chiedere conferme di altro genere, come per esempio una parola chiave concordata o una risposta a una domanda su qualcosa che nessun altro può sapere.

[Un’altra possibilità è chiedere alla persona in video di mettersi di profilo: questo spesso fa impazzire i software di deepfake in tempo reale, che difficilmente vengono addestrati per questa posizione del viso]

Fiumi di fake news generate dall’IA per fare soldi

Stanno diventando sempre più numerosi i siti Internet che pubblicano enormi quantità di notizie false generate automaticamente tramite l’intelligenza artificiale, e ben 141 marche molto conosciute stanno finanziando questi siti senza rendersene conto. Lo segnala Newsguard, un sito di valutazione dell’affidabilità delle fonti di notizie gestito da giornalisti che offre anche un’estensione per browser che avvisa l’utente quando visita un sito che pubblica regolarmente notizie false.

Soltanto nel mese di maggio 2023, gli analisti di NewsGuard hanno più che quadruplicato il numero di siti di fake news segnalati dal loro software, da 49 a 217, e ne hanno aggiunti altri sessanta a giugno. Sono insomma quasi trecento i siti di questo genere catalogati, che pubblicano fino a 1200 pseudoarticoli al giorno ciascuno e coprono almeno 13 lingue, dall'arabo al ceco all’italiano al thailandese. Per fare un paragone, un giornale medio pubblica circa 150 notizie al giorno.

È un vero e proprio fiume in piena di fake news, reso possibile da strumenti automatici di generazione di testi come ChatGPT, e confezionato in siti che hanno una veste grafica e un nome apparentemente generici e rispettabili. Un fiume che era perfettamente prevedibile non appena sono nati i generatori di testi.

Ma l’intelligenza artificiale non è l’unica tecnologia che permette l’esistenza di questi enormi avvelenatori dell’informazione: c’è di mezzo anche il cosiddetto programmatic advertising. Questi siti ingannevoli esistono allo scopo di fare soldi, non di disinformare in senso stretto, e fanno soldi grazie al fatto che i grandi servizi di pubblicità online, come per esempio Google e Meta, usano un complesso meccanismo automatico di piazzamento delle pubblicità nei vari siti, basato sulla profilazione degli interessi degli utenti: il programmatic advertising, appunto.

Il risultato di questo meccanismo è che gli inserzionisti spesso non hanno idea di dove venga pubblicata la loro pubblicità, e siccome i servizi pubblicitari pagano i siti che ospitano le loro inserzioni, alcuni imprenditori senza scrupoli creano siti pieni di notizie-fuffa per incassare soldi dalle pubblicità. Più pagine di notizie si pubblicano, più spazi pubblicitari ci sono, e quindi a loro conviene trovare il modo di generare il maggior numero possibile di pagine. E quel modo è, appunto, l’intelligenza artificiale.

Il risultato a volte è quasi comico, come nel caso di un sito di pseudonotizie brasiliano, Noticias de Emprego (noticiasdeemprego.com.br), nel quale un “articolo” inizia addirittura con le parole “Mi scuso, ma come modello linguistico di intelligenza artificiale non sono in grado di accedere a collegamenti esterni o pagine Web su Internet”.

Fonte: Newsguard.
E non è neanche l’unico caso, come dimostra questa ricerca mirata in Google.

È un indicatore decisamente sfacciato e facilmente riconoscibile di contenuti generati dall’intelligenza artificiale senza la benché minima supervisione umana, eppure i grandi servizi pubblicitari online non sembrano fare granché per evitare di foraggiarli con i soldi delle grandi marche: banche, agenzie di autoloneggio, compagnie aeree, catene di grandi magazzini e altro ancora. Eppure le regole pubblicitarie di Google dicono molto chiaramente che non vengono accettati siti che includono contenuti generati automaticamente di tipo spam. Nonostante questo, Newsguard nota che oltre il 90% delle pubblicità che ha identificato su questi siti di pseudoinformazione è stato fornito da Google.

Possiamo difenderci da questi siti ingannevoli e ostacolare i loro guadagni installando nei nostri computer e telefonini dei filtri che blocchino le pubblicità, i cosiddetti adblocker, che sono gratuiti, e strumenti che segnalino i siti di questo genere, come appunto quello proposto da Newsguard, che però costa 5 euro al mese.

Ovviamente il problema sarebbe risolvibile a monte vietando del tutto il tracciamento pubblicitario e l’inserimento automatico delle pubblicità nei siti, ma i legislatori sembrano molto riluttanti ad agire in questo senso, mentre Google pare così preso dal vendere spazi pubblicitari da non controllare dove siano quegli spazi. E così, in nome dei soldi, Internet si riempie di siti spazzatura che tocca a noi scansare e ripulire a spese nostre.

Fonte aggiuntiva: Gizmodo.

Immagini di abusi su minori generati dall’IA

Il terzo disastro perfettamente prevedibile di questa rassegna è anche il più infame. La BBC ha pubblicato un’indagine che ha documentato l’uso di software di intelligenza artificiale per generare immagini sintetiche di abusi sessuali su minori [CSAM, dalle iniziali di Child Sexual Abuse Material] e venderle tramite abbonamenti a comuni servizi di condivisione di contenuti a pagamento come Patreon, che sono inconsapevoli di essere coinvolti.

Il software di intelligenza artificiale usato, secondo la BBC, è Stable Diffusion, la cui versione normale ha delle salvaguardie che impediscono di produrre questo tipo di immagine. Ma queste salvaguardie sono facilmente rimovibili da chi installa questo software sul proprio computer, e a quel punto è sufficiente dare una descrizione testuale del contenuto che si desidera e il software, impassibile, lo genererà.

La quantità di materiale di questo genere prodotto in questo modo è enorme: ciascun offerente propone in media almeno mille nuove immagini al mese. E anche se c’è chi si giustifica dicendo che nessun bambino reale viene abusato perché le immagini sono appunto sintetiche, le autorità e gli esperti notano che queste immagini sintetiche vengono generate partendo da un repertorio di immagini reali e che gli stessi siti che offrono le pseudofoto propongono spesso anche immagini di abusi effettivi. In ogni caso, la detenzione di immagini di questo genere, reali o generate, è reato in quasi tutti i paesi del mondo.

Verrebbe da pensare che materiale atroce di questo genere sia relegato nei bassifondi di Internet, magari nel tanto mitizzato dark web, ma molto più banalmente si trova spesso su normali siti web. Secondo la BBC, infatti, in Giappone la condivisione di disegni sessualizzati di bambini non è reato, e quindi molti offerenti di queste immagini le pubblicano apertamente, usando hashtag identificativi appositi. Uno di questi siti residenti in Giappone, Pixiv, ha dichiarato che dal 31 maggio scorso ha bandito “tutte le rappresentazioni fotorealistiche di contenuti sessuali che coinvolgono minori”. Noterete che Pixiv parla solo di immagini fotorealistiche. E viene da chiedersi come mai questo divieto sia entrato in vigore solo ora.

Uno dei problemi più grandi di questa montagna di immagini di abusi è che rende sempre meno efficaci gli strumenti adottati dalle forze di polizia e dai social network per tracciare e bloccare questo materiale. Quando le autorità trovano un’immagine o un video di questo genere, ne producono una sorta di impronta digitale matematica, un hash, che non contiene l’immagine e non permette di ricostruirla ma consente di identificarla automaticamente. Gli elenchi di questi hash possono essere condivisi senza problemi e inclusi nei filtri automatici delle applicazioni, dei siti di condivisione e dei social network. Ma se i software di intelligenza artificiale consentono di generare innumerevoli immagini sempre differenti, questo sistema collassa rapidamente.

L’unica difesa possibile, oltre all’informazione, all’educazione, a una discussione schietta della questione e al lavoro incessante delle autorità, che hanno riscosso successi importanti anche recentemente in Svizzera, è segnalare queste immagini ai facilitatori dei servizi di pagamento, che bloccheranno gli account e i soldi che contengono. Ma è un lavoro delicatissimo, nel quale la prima regola è mai mandare copie di queste immagini a nessuno, neppure alle autorità stesse, perché si diventerebbe detentori e condivisori di questo materiale. Si deve mandare sempre e solo il link che porta al contenuto e non conservare copie o screenshot di quel contenuto. Lo sa bene, paradossalmente, proprio la BBC, quella che ha svolto quest’indagine delicatissima: nel 2017 segnalò che Facebook stava ospitando immagini di abusi su minori e fece l’errore di inviare degli screenshot di queste immagini a Facebook invece di mandare i link come richiesto. Per tutta risposta, Facebook fu costretta a denunciare alla polizia i giornalisti dell’emittente britannica.

In casi come questi, è meglio stare alla larga ed evitare ogni tentazione, per quanto umanamente comprensibile, di vigilantismo. 

Fonte aggiuntiva: Ars Technica.

Intanto, è ormai chiaro che il vaso di Pandora dell’intelligenza artificiale è stato aperto, nonostante tutte le ammonizioni, non lo si può più chiudere e ci tocca conviverci. Non resta che sperare che da questo vaso escano anche tante applicazioni positive. Ma questa è un’altra storia, da raccontare in un’altra puntata.

Chiusura

Anche questa puntata del Disinformatico è infatti giunta al termine: grazie di averla seguita. Questo podcast è una produzione della RSI Radiotelevisione svizzera. Le nuove puntate del Disinformatico vengono messe online ogni venerdì mattina presso www.rsi.ch/ildisinformatico e su tutte le principali piattaforme podcast. I link e le fonti di riferimento che ho citato in questa puntata e nelle precedenti sono disponibili presso Disinformatico.info. Per segnalazioni, commenti o correzioni, scrivetemi una mail all’indirizzo paolo.attivissimo@rsi.ch. A presto.

Nessun commento:

Posta un commento

Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.

Pagine per dispositivi mobili