Cerca nel blog

2024/04/19

Podcast RSI - Story: La beffa dei cookie rifiutati

logo del Disinformatico

Ultimo aggiornamento: 2024/04/19 20:45.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Voce sintetica che legge tediosamente un avviso di cookie]

Se provate a cliccare su “Rifiuto" quando un sito vi chiede se accettate o rifiutate i cookie, due siti su tre in Europa ignoreranno la vostra richiesta. Quella irritantissima, onnipresente finestrella che da anni compare quando visitiamo un sito per la prima volta sembra essere insomma una totale perdita di tempo. Perlomeno questo è il risultato di un esperimento svolto recentemente da un gruppo di ricercatori del Politecnico federale di Zurigo su un campione di quasi centomila siti popolari europei.

Questa è la storia dei cookie, del perché esistono, del motivo per cui siamo assillati da queste richieste di accettarli o rifiutarli, e di questa ricerca che a quanto pare mina alla base la loro esistenza.

Benvenuti alla puntata del 19 aprile 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Cookie, biscottini che vengono da lontano

Cookie, che in inglese americano vuol dire letteramente “biscotto”, è un termine informatico che arriva dagli anni Ottanta del secolo scorso, quando lo si usava nei sistemi UNIX per indicare un pacchetto di dati ricevuto da un programma e restituito intatto al sistema informatico che glielo aveva mandato.

La stessa idea fu adottata anche per Internet e in particolare per il Web: nel 1994, ossia trent’anni fa, i cookie furono usati per la prima volta da uno dei primissimi browser, Netscape (ve lo ricordate?). Servivano per sapere se un utente aveva già visitato il sito di Netscape in precedenza. Il cookie era, ed è tuttora, semplicemente un file che viene scritto sul computer dell’utente dal sito visitato da quell’utente e contiene delle informazioni che quel sito può leggere in un secondo momento. Per esempio, se un utente fa una serie di acquisti su un sito, il contenuto del carrello della spesa virtuale può essere salvato in un cookie, così se cade la connessione l’utente non deve ricominciare tutto da capo.

All’epoca, trent’anni fa, l’esistenza dei cookie era sconosciuta alla maggior parte degli utenti. I cookie erano soltanto una soluzione tecnica, per addetti ai lavori: una delle tante che venivano sviluppate in quel periodo frenetico di evoluzione di Internet. Ma un articolo del Financial Times [This bug in your PC is a smart cookie, 12/2/1996] ne parlò ampliamente a febbraio del 1996, facendo notare le implicazioni di privacy dell’uso dei cookie e scatenando l’interesse dell’opinione pubblica.

Da quel debutto lontano i cookie hanno fatto molta strada, e sono diventati utilissimi per ricordare per esempio le preferenze di lingua o di aspetto di un sito, in modo da non doverle tediosamente reimpostare ogni volta che si visita quel sito, ma sono diventati anche una delle forme di tracciamento più usate su Internet per la profilazione commerciale degli utenti. Quelle implicazioni di privacy accennate tre decenni fa si sono avverate, insomma, e oggi i grandi operatori commerciali e le agenzie pubblicitarie usano i cookie per pedinare virtualmente gli utenti e osservare i loro interessi di navigazione. Oltre il 90% dei siti web traccia gli utenti e raccoglie dati personali.

Il rischio di abuso era troppo alto, e così nel corso degli anni sono state emesse varie direttive europee sulla privacy digitale che hanno fatto scuola anche in buona parte del resto del mondo. È il caso, per esempio, della direttiva ePrivacy del 2002 e in particolare del GDPR, entrato in vigore nel 2018. Ed è a quel punto che sono comparse in massa nei siti le finestre di richiesta di accettare o rifiutare i cookie.

Il GDPR, infatti, ha imposto ai siti di informare gli utenti del fatto che venivano tracciati e di come venivano tracciati tramite i cookie, e la finestra di richiesta (tecnicamente si chiama cookie notice) ha risolto quest’obbligo. Perlomeno dal punto di vista dei siti. Dal punto di vista degli utenti, invece, questa finestra incomprensibile, con i suoi discorsi su cookie tecnici, cookie di funzionalità, cookie di profilazione e pubblicità mirata”, è stata percepita principalmente come una scocciatura, anche perché alla fine per poter usare i siti era quasi sempre necessario accettare questi benedetti cookie e quindi c’era ben poca scelta concreta.

E così siamo diventati un po’ tutti bravi cliccatori automatici del pulsante “Accetta tutti, ma in sostanza non è cambiato nulla e continuiamo a essere profilati nelle nostre navigazioni.

Ricerca: il 65% dei siti web probabilmente ignora la richiesta di rifiuto dei cookie

L’articolo dei ricercatori del Politecnico di Zurigo, disponibile presso Usenix.org, spiega il metodo usato per documentare con i dati quello che molti utenti sospettano da tempo: i ricercatori hanno adoperato il machine learning, una particolare branca dell’intelligenza artificiale, per automatizzare il processo di interazione con queste richieste di cookie dei siti. Questo ha permesso di estendere la ricerca a ben 97.000 siti fra i più popolari, scelti fra quelli che si rivolgono principalmente a utenti dell’Unione Europea, includendo siti scritti in ben undici lingue dell’Unione.

Con questo approccio, i ricercatori hanno potuto inoltre includere vari tipi differenti di avviso per i cookie e hanno potuto distinguere addirittura i vari tipi di cookie richiesti, ossia quelli necessari per il funzionamento del sito (i cosiddetti cookie tecnici) e quelli usati dai pubblicitari per tracciare i visitatori del sito (i cosiddetti cookie di profilazione), e sono riusciti anche a distinguere l’uso conforme o non conforme di questi cookie.

In pratica, il software sviluppato dai ricercatori ha interagito con gli avvisi per i cookie di questi siti nello stesso modo in cui lo avrebbe fatto una persona, ossia riconoscendone il testo e agendo di conseguenza, adattandosi alle singole situazioni, cliccando su “Accetto” o “Rifiuto” a seconda dei casi e acquisendo una copia dei cookie lasciati dal sito per verificare quali dati venivano acquisiti nonostante il rifiuto. Questo è il tipo di ricerca per il quale l’intelligenza artificiale risulta efficace e rende fattibili studi che prima sarebbero stati impossibili o assurdamente costosi.

I risultati, però, sono sconsolanti: oltre il 90% dei siti visitati con il software scritto dai ricercatori contiene almeno una violazione della privacy. Ci sono violazioni particolarmente vistose, come la mancanza totale di un avviso per i cookie nei siti che usano i cookie per la profilazione dei visitatori, che secondo i ricercatori si verifica in quasi un sito su tre, ossia il 32%.

Il 56,7% dei siti esaminati non ha un pulsante che consenta di rifiutare i cookie ma ha solo un pulsante per accettarli. I siti che hanno questo pulsante di rifiuto e fanno profilazione commerciale tramite cookie nonostante l’utente abbia rifiutato la profilazione sono il 65,4%. Fra i siti che usano i cookie di profilazione, uno su quattro, ossia il 26%, non dichiara di farlo.

Un altro dato interessante che emerge da questa ricerca è che i siti più popolari sono quelli che hanno la maggior probabilità di offrire un avviso per i cookie e un pulsante per rifiutarli e che maggiormente dichiarano di profilare gli utenti, ma sono anche i siti che tendono a ignorare maggiormente il rifiuto degli utenti o a presumere un consenso implicito. In altre parole, dicono i ricercatori, “i siti popolari mantengono una facciata di conformità, ma in realtà rastrellano più dati degli utenti di quanto facciano i siti meno popolari.”

Che si fa?

È facile pensare che a questo punto i ricercatori abbiano in sostanza stilato un enorme elenco di siti inadempienti, da portare subito in tribunale o di fronte a un’autorità per la protezione dei dati, ma non è così. A differenza di molte altre ricerche condotte usando software di intelligenza artificiale, in questa viene messo molto in chiaro che una procedura automatica di questo tipo ha un rischio di falsi positivi troppo elevato, circa il 9%, e che quindi le segnalazioni fatte dall’intelligenza artificiale andrebbero controllate una per una. In altre parole, il metodo in generale funziona e permette di valutare la scala del problema, ma non è sufficientemente preciso da poter puntare automaticamente il dito sui singoli siti che non rispettano le norme.

Questo non vuol dire che tutta questa ricerca sia inutile all’atto pratico perché tanto non consente di intervenire. Anzi, lo scopo dei ricercatori è fornire per la prima volta uno strumento che finalmente consenta una “analisi su vasta scala, generale e automatizzata, della conformità degli avvisi per i cookie”, ben più ampia di tutti gli studi precedenti, e che permetta quindi una vigilanza maggiore di quella attuale, che è manuale, per identificare i violatori delle norme.

La vigilanza manuale ha già colpito parecchie volte. Per esempio, i ricercatori notano che l’agenzia francese per la protezione dei dati, il CNIL, ha multato Amazon per 35 milioni di dollari perché elaborava dati personali senza aver prima ottenuto il consenso dell’utente e segnalano anche che lo stesso CNIL ha multato Google e Facebook, rispettivamente per 150 e 90 milioni di euro, perché non fornivano un pulsante di rifiuto ma solo quello di accettazione dei cookie e chiedevano agli utenti di andare nelle impostazioni per rifiutare i cookie.

Anche con i controlli puramente manuali, insomma, le sanzioni arrivano, ma a quanto pare sono ancora moltissimi i siti che preferiscono rischiare le multe e sperano di farla franca perché le probabilità di essere scoperti sono state finora scarse e un’eventuale multa veniva messa in conto come semplice costo operativo. Ma questa tecnica proposta dei ricercatori potrebbe cambiare la situazione.

Staremo a vedere, e nel frattempo continueremo a cliccare.

2024/04/15

Stasera alle 19 su Youtube: paradosso di Fermi e le dichiarazioni di Elon Musk

Stasera alle 19 sarò ospite del canale YouTube di Tesla Owners Italia per parlare delle ultime dichiarazioni di Elon Musk, tra alieni, missioni su Marte e SpaceX: chi lo osanna e chi lo prende per pazzo. Una parte della puntata sarà dedicata alle tariffe delle ricariche impazzite in Italia. Cosa c’è dietro? Con me ci saranno Fabrizio Colista, ingegnere e divulgatore tecnico scientifico, Daniele Invernizzi e Pierpaolo Zampini. Coordina Luca Del Bo.

https://www.youtube.com/watch?v=PhKLDlQZwAA

2024/04/14

È morto Giovanni Battista Judica Cordiglia. No, non aveva intercettato le voci di cosmonauti morti nello spazio prima di Gagarin

Andrea Ferrero su Mastodon segnala la scomparsa di uno dei protagonisti italiani del cospirazionismo spaziale: “È morto il tecnico elettronico Giovanni Battista Judica Cordiglia. Oggi molti giornali diranno che insieme al fratello Achille aveva intercettato le voci di cosmonauti morti nello spazio prima di Gagarin. Non è vero”.

https://mastodon.uno/@andrea_ferrero@sociale.network/112268577678233664

Per saperne di più, consiglio questo articolo del Cicap sulle false credenze spaziali:

https://www.cicap.org/n/articolo.php?id=1801027

e il libro Cosmonauti perduti di Luca Boschini:

https://www.cicap.org/new/prodotto.php?id=3859

2024/04/12

Biografie astronautiche oggi col 20% di sconto

Per festeggiare la Giornata internazionale del volo umano nello spazio, l’editore Cartabianca.com offre solo per oggi il 20% di sconto sulle autobiografie degli astronauti lunari Cernan, Young e Collins dando il codice spaceman.

Podcast RSI - Story: Deepfake fra plagio, abuso e autodifesa

logo del Disinformatico

Ultimo aggiornamento: 2024/04/18 8:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

Deepfake. È la parola usata per indicare la tecnica informatica che permette di sostituire il volto di una persona con un altro, in foto e in video, usando l’intelligenza artificiale, in maniera molto realistica. Così realistica che, se il deepfake è fatto bene, la maggior parte delle persone non si accorge affatto che si tratta di un volto sostituito.

Per molti utenti, deepfake è sinonimo di molestia, di truffa, ma per altri invece è un’occasione di lavoro, di scoperta della propria personalità, e addirittura di protezione personale.

Benvenuti alla puntata del 12 aprile 2024 del Disinformatico, che stavolta racconta due casi molto differenti di applicazione di deepfake che spaziano dal plagio alla molestia fino all’autodifesa, e presenta le nuove regole di Meta per la pubblicazione di deepfake e immagini sintetiche in generale. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Influencer virtuali in crescita ma sotto attacco deepfake

Pochi mesi fa, a dicembre 2023, vi ho raccontato la mia esplorazione del fenomeno delle cosiddette influencer virtuali: persone che non esistono, le cui immagini e i cui video sono generati dall’intelligenza artificiale. Identità che sono pilotate da persone reali che scelgono le loro pose, il loro vestiario e le loro apparizioni sui social network.

Una delle più celebri influencer virtuali è la spagnola Aitana Lopez, gestita da un’agenzia di moda di Barcellona: oggi ha oltre 300.000 follower su Instagram (@fit_aitana) e fa guadagnare i suoi creatori tramite i contratti pubblicitari e la vendita di foto piccanti su piattaforme per adulti come Fanvue.

L’idea dell’influencer virtuale, quasi sempre al femminile (anche se c’è qualche raro, timido tentativo al maschile), piace molto al mercato: costa molto meno di una modella o di una influencer in carne e ossa, non si lamenta delle ore di lavoro o dei vestiti scomodi, non si stanca, non invecchia, non ingrassa e non ha spese di trasferta. Se una campagna pubblicitaria ha bisogno di un volto o di un corpo che attirino l’attenzione o semplicemente indossino un certo prodotto, può rivolgersi a questi personaggi sintetici a basso costo e alta efficienza. Nessuno del pubblico si accorgerà che si tratta di immagini generate dall’intelligenza artificiale.

Creare questi personaggi virtuali è abbastanza semplice: ero riuscito anch’io a creare un clone molto realistico di Aitana Lopez, con l’aiuto di una coppia di persone esperte di grafica digitale. La parte difficile è guadagnarci qualcosa, cercando sponsor o contratti pubblicitari e scansando le offerte truffaldine di una selva di sedicenti promotori che si fanno pagare promettendo di farti avere tanti follower (tutti falsi). Ho chiuso il mio esperimento senza rimetterci soldi, ma ho continuato a seguire gli sforzi di chi mi aveva aiutato e che ora comincia a vedere i primi guadagni. Qualche foto per la copertina di un CD o di una playlist di una band emergente, qualche illustrazione per piccoli eventi, qualche fotografia sexy venduta online, tanti contenuti pubblicati diligentemente tutti i giorni, e i follower, soprattutto su Instagram, alla fine arrivano, anche nel mercato di lingua italiana, al di qua e al di là della frontiera.

Profili sintetici come Francesca Giubelli (11.000 follower), Rebecca Galani (15.000 follower) o Ambrissima (37.000 follower) vengono intervistati virtualmente dai media generalisti come se fossero persone reali, e spostano opinioni e creano discussioni, anche su temi impegnativi come il clima o i diritti umani, proprio come se fossero persone reali. Non hanno i numeri dei grandi influencer reali, certo, ma in compenso costano molto meno e soprattutto non fanno gaffe e non causano imbarazzi ai loro sponsor con le loro vicende sentimentali. Aspettatevi, insomma, che nei prossimi mesi siano sempre più presenti e numerosi gli influencer virtuali le cui immagini sono generate con l’intelligenza artificiale.

Stanno nascendo anche le prime community di influencer virtuali in lingua italiana, come Aitalia.community, i cui membri si scambiano trucchi e consigli tecnici e di marketing e si sono dati un “manifesto etico” di trasparenza, che esige per esempio che i contenuti sintetici siano sempre dichiarati come tali, a differenza di alcuni settimanali blasonati che spacciano per autentiche delle foto talmente ritoccate da dare due piedi sinistri alle persone ritratte.

[Nota: Aitalia mi ha precisato di definirsi “la prima community di AI models, influencers e talents etici a livello globale” e “la prima a redarre il manifesto etico condiviso con l’internazionale” (nel senso delle “community nate fuori dai confini italiani, come AVA Models e Virtual factors”)]

Al primo punto di questo manifesto c’è il divieto dei deepfake non consensuali. Moltissimi artisti digitali che creano e curano belle immagini di modelle e modelli virtuali si vedono infatti plagiare il lavoro da operatori senza scrupoli, che scaricano in massa le immagini prodotte da questi artisti, sostituiscono i volti dei loro personaggi usando la tecnica del deepfake, senza permesso e senza compenso, e così riusano a scrocco la fatica altrui ripubblicandola sui propri profili social, che spesso hanno un seguito maggiore di quello degli artisti originali.

È un nuovo tipo di pirateria dei contenuti, ed è un problema che tocca anche le modelle e i modelli in carne e ossa. Nelle varie piattaforme social, infatti, abbondano i profili che hanno centinaia di migliaia di follower, con i relativi guadagni, ottenuti pubblicando le foto o i reel, ossia i video, di persone reali, quasi sempre donne, e sostituendone i volti per spacciarli per immagini create da loro. Lo segnala per esempio un articolo su 404media, facendo nomi e cognomi di questi sfruttatori della fatica altrui.

Molti creatori di contenuti si stanno difendendo usando il watermarking, ossia la sovrimpressione di scritte semitrasparenti per identificare l’autore originale dell’immagine sintetica o reale, ma i software di intelligenza artificiale riescono spesso a cancellare queste sovrimpressioni.

Se state pensando di fare l’influencer virtuale o reale perché vi sembra un lavoro facile, o di promuovere la vostra arte online, mettete in conto anche il rischio della pirateria. E se pensavate che fare la modella o il modello fosse uno dei pochi lavori non influenzati dall’intelligenza artificiale, devo darvi una delusione: a parte forse marmisti e pizzaioli, non si salva nessuno.

Salva dallo stalking grazie al deepfake: Sika Moon

Dalla Germania arriva un caso molto particolare di uso positivo della tecnica del deepfake, segnalato in un’intervista pubblicata da Die Tageszeitung e dedicata a una giovane donna che si fa chiamare Sika Moon e pubblica e vende online le proprie foto e i propri video per adulti. Questo è il suo lavoro a tempo pieno, e le sue attività sulle varie piattaforme social sono seguite in media da circa 4 milioni di persone al mese, dandole guadagni mensili che lei definisce “stabilmente a cinque cifre”.

Anche il suo lavoro è stato toccato dall’intelligenza artificiale. Per cinque anni ha lavorato pubblicando sulla piattaforma Onlyfans, mostrando il suo vero volto, ma delle esperienze di stalking che definisce “terribili” l’hanno costretta a proteggersi ricorrendo all’anonimato, ottenuto in questo caso facendo un deepfake a se stessa. Il viso della donna in questione, infatti, nelle foto e nei video è generato con l’intelligenza artificiale, ed è differente dal suo, ma è talmente realistico che pochi si accorgono della manipolazione. Ora ha cambiato piattaforma, perché Onlyfans rifiuta i contenuti generati sinteticamente.

Questo deepfake, insomma, le ha permesso di evitare che il suo lavoro fosse sabotato dagli stalker e le consente di proseguire la propria attività in sicurezza. È un tipo di uso positivo di questa tecnologia che non riguarda solo chi vuole proteggersi da persone pericolosamente invadenti ma vale anche, per esempio, per chi vive in un ambiente in cui è considerato reato, tipicamente solo per le donne, mostrare il proprio volto oppure è comunque necessario coprirlo o mascherarlo per non farsi identificare, per provare in sicurezza esperienze altrimenti impossibili. Un deepfake, insomma, è una maschera che però lascia passare tutta l’espressività di un viso.

Inoltre, sempre grazie all’intelligenza artificiale, Sika Moon può comunicare con i propri fan direttamente nella loro lingua. Ha infatti fatto clonare la propria voce e quindi può ora inviare messaggi vocali ai suoi follower parlando ogni volta nella loro rispettiva lingua.

Nell’intervista, Sika Moon segnala inoltre un altro fenomeno interessante che riguarda le immagini generate dall’intelligenza artificiale: in molte culture l’idea stessa che una fotografia di una persona possa essere creata sinteticamente è inconcepibile o fa molta fatica a essere accettata. In fin dei conti, una foto è una foto, un disegno è un disegno. Solo il computer permette di creare in grandi quantità disegni che sembrano fotografie. “La gente in India, nei paesi africani e in quelli arabi di solito non lo capisce affatto”, spiega Sika Moon, nonostante il suo profilo dichiari chiaramente che molte sue immagini sono completamente generate dall’intelligenza artificiale. E quello che dice corrisponde anche alla mia esperienza nel seguire le attività di altre persone che fanno lo stesso lavoro di Sika Moon appoggiandosi all’informatica per le proprie immagini.

Tutto questo sembra indicare che l’impatto culturale dell'IA sarà differente nei vari paesi del mondo. In quelli tecnologizzati verrà probabilmente attutito dalla familiarità con la tecnologia, ma in altri sarà molto più destabilizzante. Forse sarebbe opportuno tenerne conto, per non creare una nuova forma di inquinamento digitale da esportare.

Nuove regole di Meta per i contenuti sintetici

La stragrande maggioranza delle foto, dei video e degli audio generati dall’intelligenza artificiale circola sui social network ed è lì che ha il maggiore impatto. Ma allora perché i social network non fanno qualcosa per impedire la diffusione di fake news, inganni e manipolazioni che usano l’intelligenza artificiale?

La risposta a questa domanda è che in realtà i social fanno qualcosa, ma quello che fanno è inadeguato, perché la tecnologia si evolve talmente in fretta che le regole scritte per esempio dal gruppo Meta per uniformare la gestione dei contenuti sintetici da parte di Facebook, Instagram e Threads risalgono a soli quattro anni fa ma sono completamente obsolete. Nel 2020 i contenuti realistici generati dall’intelligenza artificiale erano rarissimi e si temeva soprattutto la manipolazione dei video. Da allora, invece, sono emerse le immagini sintetiche realistiche producibili in massa e anche i contenuti audio falsi e creati artificialmente.

E così Meta ha presentato le sue nuove regole con un comunicato stampa il 5 aprile scorso: prossimamente smetterà di censurare direttamente i contenuti “innocui” generati dall’intelligenza artificiale e a partire da maggio applicherà un’etichetta di avviso a una gamma più vasta di contenuti video, audio e di immagini se rileverà che sono stati creati o manipolati adoperando l’intelligenza artificiale o se chi li pubblica li indicherà spontaneamente come generati usando questa soluzione.

Mentre finora le regole bandivano soltanto i video realizzati o alterati con l’intelligenza artificiale che facevano sembrare che una persona avesse detto qualcosa che non aveva detto, ora verranno etichettati anche i video modificati per attribuire a una persona un comportamento o un gesto che non ha commesso. Da luglio, inoltre, Meta smetterà di censurare i contenuti generati che non violano le regole su argomenti come le interferenze elettorali, il bullismo, le molestie, la violenza e l’istigazione. In sostanza, ci saranno meno rimozioni e più etichettature di avvertimento.

Tuttavia c’è il problema che al momento attuale Meta si affida agli indicatori standard per riconoscere le immagini sintetiche. Molti software per la generazione di immagini, come quelli di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, includono nelle proprie immagini un indicatore visibile o rilevabile digitalmente, una sorta di bollino che le marca come sintetiche, e Meta usa solo questo indicatore per sapere se un’immagine è alterata oppure no; non fa nessun altro controllo. Di conseguenza, un creatore ostile può quindi generare immagini o video senza indicatori, o togliere questi indicatori da contenuti esistenti, che non verranno riconosciuti ed etichettati da Meta come sintetici.

Per colmare almeno in parte questa lacuna, Meta offrirà agli utenti la possibilità di etichettare volontariamente i contenuti generati con l’intelligenza artificiale e applicherà penalità a chi non usa questa etichettatura. Ma è chiaro che chi vuole ingannare o disseminare disinformazione non aderirà certo a questo volontariato e potrà farla franca anche con le nuove regole. Come al solito, insomma, i social network fanno troppo poco, troppo tardi.

Fonte aggiuntiva: Ars Technica.

2024/04/10

Complotti lunari: il film “Fly Me to the Moon”

Scarlett Johansson e Channing Tatum sono i protagonisti di “Fly Me to the Moon”, un film in uscita a luglio che racconta gli allunaggi umani degli anni Sessanta ipotizzando che venga commissionata una messinscena da usare qualora il programma spaziale reale si rivelasse un fiasco e non riuscisse a compiere l’impresa.

Sicuramente gli ottusangoli diranno che è il modo che usa Hollywood per comunicare le verità impresentabili e forse qualcuno temerà che un film del genere possa risvegliare i lunacomplottisti, ma in realtà il trailer sembra suggerire quanto sarebbe stato difficile, se non impossibile, realizzare una finzione del genere.

Video: l’intelligenza artificiale è una minaccia per i media e per il servizio pubblico radiotelevisivo?

Il 26 marzo scorso ho partecipato al dibattito pubblico organizzato da gioventudibatte.ch all’auditorium di BancaStato a Bellinzona sul tema dell’intelligenza artificiale e in particolare della sua eventuale pericolosità per i media e per il servizio pubblico radiotelevisivo. Ho argomentato che l’IA è soprattutto una minaccia per questo settore, insieme a Pierfranco Longo, presidente della Conferenza cantonale dei genitori e membro del Consiglio regionale Ssr.Corsi. Il punto di vista contrario è stato sostenuto da Reto Ceschi (responsabile del Dipartimento informazione alla Rsi) e da Alessandro Trivilini (docente e ricercatore in ingegneria e sicurezza informatica alla Supsi).

Ecco il video (40 minuti in tutto):

2024/04/05

Podcast RSI - WhatsApp abbassa l’età limite, navigazione anonima che non lo è, Playmate come standard tecnico

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Quattro anni di azione legale negli Stati Uniti hanno documentato quello che per molti sarà un tradimento informatico: la navigazione in incognito di Google Chrome è in realtà tutt'altro che in incognito, e Google ha tracciato per anni le visite particolarmente sensibili che si fanno quando si usa questo modo di navigare nel Web. Intanto WhatsApp si prepara a cambiare di nuovo il limite minimo di età per usarlo, facendolo scendere da 16 a 13 anni anche in Europa. Se volete sapere perché WhatsApp finora ha avuto un limite di età così alto nel nostro continente e perché ora di colpo lo abbassa, siete nel posto giusto.

Benvenuti alla puntata del 5 aprile 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e oltre a queste notizie vi porto la strana storia di una foto di Playboy che è diventata uno standard tecnico per gli informatici. No, non sto scherzando. Cominciamo!

[SIGLA di apertura]

La navigazione in incognito non è in incognito

Uno dei miti più tenaci e durevoli fra gli utenti di Internet è l’idea che la navigazione in incognito sia, appunto, in incognito. Il nome di questa modalità di navigazione nel Web è infatti molto ingannevole e viene spesso frainteso.

La navigazione in incognito o anonima o privata, come la chiamano i vari browser, è in realtà semplicemente un modo per visitare siti senza lasciare tracce sul dispositivo che state usando. Non rimane memoria nella cronologia di navigazione, non vengono salvati cookie o file temporanei su quel dispositivo, tablet, computer o telefonino che sia. Ma i siti che visitate si ricordano eccome della vostra visita e sono perfettamente in grado di identificarvi. In particolare, è in grado di identificarvi Google, se navigate usando il suo browser Chrome.

È quello che emerge da una class action avviata nel 2020 negli Stati Uniti contro Google, i cui atti sono stati ora pubblicati: l’azienda ha concordato, non senza opporre grandissima resistenza per quattro anni, appunto, che cancellerà miliardi di dati raccolti mentre gli utenti di Chrome usavano la navigazione in incognito e probabilmente pensavano di navigare in modo anonimo, cullati da un falso senso di sicurezza.

L’azione legale prevede anche che Google aggiorni gli avvisi informativi che compaiono quando si attiva la navigazione in incognito. Questi avvisi dovranno dire molto chiaramente che Google raccoglie dati dai siti visitati, a prescindere dalla modalità di navigazione, in incognito o meno, e che i siti e le app che includono i servizi di Google scambiano in ogni caso informazioni con Google.

Sul versante tecnico, Chrome dovrà bloccare i cookie di terzi nella navigazione in incognito, visto che li usava per tracciare gli utenti durante questo tipo di navigazione su siti non appartenenti a Google, e dovrà anche oscurare parzialmente gli indirizzi IP per impedire la cosiddetta reidentificazione: quella che permette di riassociare dati di navigazione apparentemente anonimi agli utenti che li hanno generati.

Gli effetti di questa azione legale si faranno sentire in tutto il mondo con i prossimi aggiornamenti di Chrome. Noi utenti non dobbiamo fare altro che aspettare questi aggiornamenti e installarli.

Ma nel frattempo resterà a molti l’amaro in bocca, perché solitamente la navigazione in incognito si usa proprio per visitare i siti di cui non si vuole lasciare traccia.

In realtà la navigazione in incognito serve per una sola cosa: per usare il dispositivo di qualcun altro senza lasciarvi tracce, per esempio per consultare la propria mail usando il computer di qualcun altro. A parte questo, la navigazione in incognito è sostanzialmente inutile per difendere la propria privacy.

Per navigare veramente in incognito servono ben altre soluzioni: applicazioni come il browser Tor, per esempio. Ma questa è un’altra storia.


WhatsApp, il limite di età scenderà a 13 anni

Dall’11 aprile prossimo l’età minima consentita per l’uso di WhatsApp scenderà da 16 a 13 anni anche in tutta Europa, allineandola al resto del mondo. Il cambiamento era stato annunciato a febbraio scorso e serve, secondo WhatsApp, a “garantire un requisito di età minima coerente a livello globale.” Dicono così. Il cambiamento si applica a tutta la “Regione europea”, come la chiama WhatsApp, e questa regione include i paesi dell’Unione Europea e anche la Svizzera.

Il limite di età di 16 anni era stato introdotto per l’Europa nel 2018, innalzandolo da 13, per rispettare le normative dell’Unione Europea, in particolare il regolamento generale sulla protezione dei dati o GDPR, che obbliga le aziende a fare “sforzi ragionevoli” (dicono così) per verificare l’età e ottenere il consenso dei genitori per gli utenti sotto i 16 anni. In pratica, WhatsApp ha preferito alzare il limite formale di età piuttosto che mettere in funzione un complesso sistema di verifica (BBC). Ma adesso le nuove garanzie sulla protezione dei dati dei minori legate all’introduzione di un’altra norma, il Digital Services Act, permettono di tornare al limite precedente.

In ogni caso, il limite formale era ed è tuttora ampiamente ignorato, come nota Pro Juventute, segnalando che del resto non ci sono conseguenze legali per i minori di 16 anni che utilizzano WhatsApp” perché “secondo il diritto svizzero, mentire sull’età non è un reato punibile.”

Tuttavia dichiarare un’età non corretta viola i termini di servizio di WhatsApp, e quindi l’azienda potrebbe limitare o bloccare l’uso dell’app qualora si accorgesse che l’utente ha mentito. Cosa che succede spesso, quando l’utente che si era iscritto anni fa a WhatsApp mentendo sull’età cerca in seguito di cambiare il proprio anno di nascita indicato nell’app, per allinearlo alla realtà: WhatsApp può accorgersi che l’account era stato aperto quando l’utente non aveva ancora l’età compatibile con le sue regole e quindi bloccare quell’account.

Va anche detto, soprattutto per i genitori confusi da tutti questi cambiamenti dei limiti di età dei vari social network, che la scelta dei 13 o 16 anni viene fatta da WhatsApp solo nel proprio interesse, per mettersi in regola con le norme, e non certo per tutelare i minori, per cui questo limite di età non va considerato come una linea guida per decidere se lasciare che i figli usino questo social network.

Fonti aggiuntive: ADNKronos, Dday.it, Laleggepertutti.it, WhatsApp, TechCrunch, WhatsApp.

Lena: la foto di Playboy che divenne standard tecnico

Siamo nell’estate nel 1973, alla University of Southern California, dove un ricercatore in campo informatico sta cercando un’immagine da usare come riferimento per i suoi test di digitalizzazione. Roba assolutamente sperimentale per l’epoca. Per la conferenza tecnica che sta preparando gli serve un’immagine su carta patinata che includa un volto umano da scansionare. Guarda caso, arriva qualcuno con una copia di Playboy

Viene strappata la parte superiore del paginone centrale della rivista, che raffigura una giovane donna che indossa solo un cappello e una piuma viola, nello stile tipico di Playboy , e ne viene fatta la scansione con i metodi primitivi di allora: lo scanner è uno di quelli per le telefoto, quelli che richiedono che l’immagine venga montata su un cilindro rotante, e la scansione viene fatta nei tre colori primari, a una risoluzione di 100 linee per pollice, pochissimo per gli standard di oggi. I dati risultanti vengono poi elaborati con un minicomputer Hewlett Packard 2100. Questo procedimento complicato produce un’immagine da soli 512x512 pixel, che oggi fa sorridere ma che per l’epoca è un risultato davvero notevole.

Il ricercatore sceglie solo la porzione dell’immagine che include le spalle nude e il volto della donna, perché questa porzione ha un contrasto elevato e una notevole ricchezza di dettagli che la rendono ideale per i test dei sistemi di elaborazione delle immagini. O perlomeno è questa la giustificazione ufficiale per l’uso del volto di una Playmate in un mondo quasi esclusivamente maschile come quello dell’informatica degli anni Settanta.

Sia come sia, la soluzione improvvisata piace e diventa popolare, per cui altri ricercatori iniziano a usare questa foto come campione di riferimento per valutare i propri programmi di compressione ed elaborazione delle immagini. In breve tempo quella fotografia di Playboy diventerà lo standard tecnico di tutto il campo nascente della fotografia digitale e verrà pubblicata in moltissimi articoli tecnici nelle riviste di settore nei decenni successivi. Sarà ancora in uso quasi quarant’anni dopo, nel 2012, quando un gruppo di ricercatori di Singapore dimostrerà di essere capace di stampare a colori immagini microscopiche, larghe come un capello [50 micrometri, ossia 5 centesimi di millimetro] e userà proprio questa foto come dimostrazione.

Se oggi abbiamo GIF, JPEG, PNG e tanti altri formati per la trasmissione di immagini lo dobbiamo anche a quest’improvvisazione californiana, fatta oltretutto in violazione del copyright e poi accettata di buon grado, una volta tanto, dall’editore della rivista, che di solito è severissimo.

Ma chi è la ragazza in questione? È nota fra i ricercatori semplicemente come “Lena” o “Lenna”, ma la rivista dalla quale fu prelevata la sua immagine la presentò come Lenna Sjööblom, Playmate di novembre 1972. Il suo vero nome è Lena [una N sola] Forsén, e all’epoca lavorava come modella.

Non capita spesso che una foto di una Playmate diventi uno standard tecnico, ma è andata così. Tuttavia le sensibilità sono cambiate rispetto a mezzo secolo fa e in effetti questa foto ha contribuito allo stereotipo della donna oggetto in un campo nel quale le donne, pur avendo fatto la storia dell’informatica, non venivano ben viste come colleghe dagli informatici di sesso maschile. Inoltre l’associazione con il marchio Playboy strideva in un ambiente accademico.

E così le riviste del prestigioso gruppo Nature hanno iniziato a rifiutarla già nel 2018. E la IEEE Computer Society, una delle associazioni più famose e influenti del settore a livello mondiale, ha annunciato pochi giorni fa che dal primo aprile 2024 non accetta più articoli scientifici che usino questa fotografia. La foto verrà rimpiazzata da altre immagini standard già in uso, chiamate Cameraman, Mandril o Peppers [esempio], ma se vi capita di consultare qualche articolo d’informatica d’epoca e vi chiedete chi sia la graziosa fanciulla che spicca nelle pagine piene di grafici e tabelle, ora sapete chi è e conoscete la sua strana storia.

Fonti aggiuntive: Wikipedia, Ars Technica.

2024/04/01

Qualcuno mi segue ancora su Twitter? Mi hanno offerto di comprare il mio account. Chiedo il vostro parere

Nota di chiarimento: quanto segue non è un pesce d’aprile, nonostante sia stato pubblicato il primo aprile.

Ieri (31 marzo) ho postato su Twitter (mi rifiuto di chiamarlo X) un sondaggio informale per sapere quante persone effettivamente seguono il mio account Twitter, nel senso che vedono davvero i miei post. Perché Twitter dice che ho 413.309 follower, ma siccome non ho un account a pagamento i miei tweet non arrivano a tutti.

Questo tweet ha ricevuto 2882 like e secondo Twitter è stato visto da 48.530 account. Numeri ben lontani dai 413mila teorici. Purtroppo la gestione Musk ha massacrato Twitter e sembra intenzionata a continuare a lungo e con lo stesso approccio. Non è più la piattaforma di informazione immediata e in tempo reale che era prima: ora è soprattutto un ricettacolo di spam, hater e contenuti violenti. Ho smesso da tempo di pubblicarvi contenuti perché mi sembra inutile farlo con una voce silenziata dagli umori momentanei ma sempre più estremi di Elon Musk e rivolgendomi a un pubblico sempre più estremizzato e aggressivo. 

In altre parole, ho un account da oltre 400 mila follower che giace inutilizzato ma comprensibilmente fa gola ad alcuni operatori commerciali. Ho ricevuto un’offerta economica seria e abbastanza significativa per cedere l’account. Ho posto due condizioni principali: gli oltre 130 mila tweet che ho scritto in questi 17 anni (ho iniziato nel 2007) non verrebbero cancellati e l’account verrebbe rinominato. La parte interessata non è qualche setta complottista in vena di vendetta, forza politica o agenzia di propaganda o disinformazione: è un servizio commerciale di assistenza personale basato sull’intelligenza artificiale.

Francamente non so cosa fare. Da un lato mi spiace perdere un account che ha quasi due decenni di storia (che però tanto non legge nessuno); dall’altro la cifra proposta non è trascurabile, soprattutto per un account che non sto nemmeno usando. Però mi sembra di mancare di rispetto a tutti quei follower che hanno scelto di seguirmi in tutti questi anni (anche se ovviamente avviserei ripetutamente di un eventuale cambio di gestione dell’account e chi ha fatto l’offerta sa benissimo che in caso di cambio ci sarebbe una ressa di defollow immediati; sembra che a loro vada bene lo stesso).

Un’alternativa sarebbe ingoiare il rospo-Musk e pagare uno stramiliardario per avere un account non limitato, per poi riprendere a usarlo per postare notizie e avvisi. Ma l’idea di dare soldi a questo personaggio, per un social network che ha comprato per farne uno strumento di propaganda politica e di autocompiacimento personale, mi ripugna parecchio.

Se avete idee, sono tutt'orecchi: scrivetele nei commenti. 


2024/03/29

Podcast RSI - Novità da Meta: interoperabilità, accuse di intercettazione dei rivali, il gioco nascosto dentro Instagram

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Da pochi giorni Threads, l’app di messaggistica di Meta, permette di scambiare messaggi anche con chi non ha Threads: è insomma diventata interoperabile, e anche WhatsApp e Messenger stanno abbattendo le barriere di compatibilità. È una rivoluzione silenziosa nel modo in cui usiamo Internet. Ma non è l’unica notizia che ci arriva da Meta: c’è un’azione legale, negli Stati Uniti, che accusa i massimi dirigenti di Meta di aver violato le leggi sulla concorrenza e sulla riservatezza delle comunicazioni pur di riuscire ad acquisire dati sulle attività del rivale Snapchat.

Benvenuti alla puntata del 29 marzo 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica e in particolare, questa volta, a notizie che arrivano da Meta, come quella del giochino nascosto nell’app di Instagram. Se vi interessa sapere come attivare questo gioco, magari per stupire gli amici, restate in ascolto. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Meta entra davvero nel fediverso

Immaginate di poter usare una sola app per postare contemporaneamente su tutti i social network e per scambiare messaggi con chiunque usi un social diverso da quello che usate voi. Da WhatsApp potreste scrivere a chi sta su Messenger o Mastodon e viceversa, per esempio. Invece di tenere sul telefono tante app di messaggistica differenti e doversi ricordare che Mario è su Telegram e Piera sta su Snapchat e saltare in continuazione da un’app all’altra, potreste semplicemente scegliere una di queste app e usarla per comunicare con tutti.

Sarebbe bello, e sta cominciando a diventare realtà. Meta ha annunciato pochi giorni fa che la sua app Threads è ora in grado di scambiare messaggi con qualunque social network che usi lo standard ActivityPub, come per esempio Mastodon. E su un binario differente, anche WhatsApp e Messenger stanno diventando interoperabili con le app di messaggistica di altri gestori: in altre parole, stanno diventando capaci di scambiare messaggi con utenti che usano piattaforme differenti, a condizione che usino il protollo standard Signal o un suo equivalente.

Nel caso di Threads, questa interoperabilità è già attiva adesso per gli utenti che abbiano più di 18 anni, abbiano profili pubblici e abbiano account basati negli Stati Uniti, in Canada o in Giappone; gli altri paesi seguiranno a breve. È una funzione opzionale: per attivarla occorre andare nelle impostazioni dell’account Threads, leggere la spiegazione di cos’è il fediverso, e poi cliccare sul pulsante di attivazione. Per WhatsApp e Messenger, invece, bisognerà aspettare che i gestori delle altre piattaforme sottoscrivano gli accordi tecnici con Meta. Ma a parte questo, sembra che tutto sia pronto. Anche in questo caso sarà il singolo utente a decidere se attivare o meno questa possibilità di comunicare con una sola app verso piattaforme di messaggistica differenti.

Questo crollo dei muri di incompatibilità che per anni hanno tenuto in ostaggi gli utenti, che erano costretti a usare una specifica piattaforma e app, non avviene per caso. È merito della pressione dell’Unione Europea sui grandi social network, applicata anche tramite la nuova legge europea, il Digital Markets Act o DMA, entrato da poco in vigore, che obbliga Meta e gli altri gestori a diventare compatibili tra loro e abbattere questo ostacolo alla libera concorrenza.

Ci vorrà ancora parecchio tempo prima che si arrivi all’interoperabilità completa, anche perché ci sono ostacoli tecnici notevoli da superare, ma la tendenza è ormai chiara e inarrestabile, con una notevole semplificazione una volta tanto a favore di noi utenti.

Fonte aggiuntiva: TechCrunch.

Se sei su Snapchat, YouTube o Amazon, forse Facebook ti ha spiato

Un’azione legale in corso negli Stati Uniti ha rivelato che Facebook aveva un progetto segreto concepito per sorvegliare gli utenti del rivale Snapchat, che poi si è esteso a coprire anche YouTube e Amazon. La vicenda risale al 2016, quando Snapchat stava avendo un boom di utenti e Mark Zuckerberg, allora CEO di Facebook (oggi Meta), voleva a tutti i costi informazioni sul traffico di dati degli utenti di Snapchat, le cosiddette analytics, per capire i motivi del successo del concorrente e sviluppare prodotti che potessero arginarlo. Ma queste informazioni non erano disponibili, perché Snapchat usava la crittografia per proteggere il proprio traffico di dati.

Così la società Onavo, acquisita da Facebook tre anni prima, fu incaricata di sviluppare una soluzione a questo problema: un kit che veniva installato sui dispositivi iOS e Android per intercettare il traffico prima che venisse crittografato, usando un attacco di tipo man in the middle tipicamente adoperato dai malintenzionati.

Questo kit fu distribuito da altre aziende come se fosse un loro prodotto, con un loro marchio distinto, in modo che fosse difficile ricollegare i vari prodotti alla singola fonte, ossia Onavo. Inoltre a volte gli utenti più giovani di Snapchat venivano pagati fino a 20 dollari al mese ciascuno per accettare di installare questi kit spioni, presentati agli utenti come se fossero delle VPN, sotto il nome di Onavo Protect: questo comportamento fu segnalato pubblicamente dal sito TechCrunch e denunciato dalla commissione australiana per la concorrenza e poco dopo Facebook chiuse il progetto, che era stato attivato nel 2016 per intercettare il traffico di Snapchat e poi era stato esteso a YouTube nel 2017 e ad Amazon nel 2018, creando anche certificati digitali falsi per impersonare server fidati di queste aziende e decifrare i dati sul traffico degli utenti, passandolo a Facebook.

L‘azione legale attualmente in corso chiarirà colpe e responsabilità dal punto di vista tecnico e giuridico, ma le dichiarazioni interne degli addetti ai lavori di Facebook, rese pubbliche dagli atti della class action intentata da utenti e inserzionisti pubblicitari, sembrano piuttosto inequivocabili.

Non riesco a pensare a una sola buona ragione per dire che questa cosa è a posto”, aveva scritto per esempio in una mail interna Pedro Canahuati, all’epoca responsabile principale per l’ingegneria di sicurezza di Facebook. I responsabili della sicurezza dell’azienda, insomma, erano contrari a questo tipo di comportamento, ma furono scavalcati.

Oltre alla prassi discutibilissima di presentare un software di sorveglianza dicendo che si tratta solo di una VPN, cioè di una cosa che gli utenti interpretano come un prodotto che protegge la privacy delle loro attività online, c’è anche il problema che secondo gli inserzionisti pubblicitari Facebook approfittò dei dati intercettati usando questo software, per imporre costi di inserzione ben più alti di quelli che avrebbe potuto chiedere in un mercato non alterato. Tutte cose da ricordare la prossima volta che Meta fa promesse di privacy ai suoi tre miliardi e mezzo di utenti.

Fonte aggiuntiva: Ars Technica.

Il giochino nascosto in Instagram

E per finire, una piccola chicca che forse alcuni di voi conoscono già: negli ultimi aggiornamenti dell’app di Instagram c’è un gioco nascosto, che richiama un po’ i vecchi videogiochi come Breakout o Pong. C‘è un emoji che si muove sullo schermo e c’è in basso un cursore scuro da usare con un dito per parare quell'emoji ed evitare che cada, facendolo rimbalzare il più a lungo possibile sullo schermo. Man mano che riuscite a continuare queste parate, l’emoji si muove sempre più velocemente.



Per accedere a questo giochino nascosto bisogna inviare un messaggio diretto a qualcuno, scrivendo in quel messaggio un singolo emoji, quello con il quale desiderate giocare. Magari è il caso anche di avvisare la persona a cui mandate questo messaggio che non state mandand emoji a caso. Dopo averlo inviato, toccate l’emoji e si avvierà il gioco. Un altro modo per rivelare il gioco è cliccare su un emoji inviato da qualcun altro tramite messaggio diretto. A quanto pare il gioco non è ancora disponibile a tutti gli utenti, per cui provate e vedete cosa succede. Buon divertimento!

Fonte: TechCrunch.

2024/03/26

L’intelligenza artificiale è una minaccia per i media e per il servizio pubblico radiotelevisivo? Ne parliamo stasera alle 18 a Bellinzona

Stasera (26 marzo) sarò all’auditorium di BancaStato a Bellinzona per partecipare a un dibattito pubblico sul tema dell’intelligenza artificiale, e in particolare della sua eventuale pericolosità per i media e per il servizio pubblico radiotelevisivo.

Sosterrò la posizione ‘pro’, ossia che l’IA sia soprattutto una minaccia per questo settore, insieme a Pierfranco Longo, presidente della Conferenza cantonale dei genitori e membro del Consiglio regionale Ssr.Corsi.

A difendere la posizione ‘contro’ saranno presenti Reto Ceschi (responsabile del Dipartimento informazione alla Rsi) e Alessandro Trivilini (docente e ricercatore in ingegneria e sicurezza informatica alla Supsi).

L’appuntamento è organizzato nell’ambito della collaborazione fra Ssr, Corsi e La gioventù dibatte ed è aperto a tutti. Dopo il dibattito seguiranno le domande del pubblico e un aperitivo offerto al ristorante Prisma. Se vi interessa partecipare, è gradita l’iscrizione attraverso il sito gioventudibatte.ch.

La serata verrà videoregistrata e resa disponibile successivamente.

Se volete saperne di più:

2024/03/23

Retrocomputing: Apple II, Commodore PET e TRS-80 in mostra a Lugano

Il 20 marzo scorso ho moderato la serata “Quando i computer divennero POP”, dedicata al retrocomputing, al Campus Est USI-SUPSI di Lugano-Viganello, resa possibile dagli sforzi coordinati di AStISI (Associazione per la storia dell’informatica nella Svizzera italiana), SUPSI (Scuola universitaria professionale della Svizzera italiana), ESoCoP (European Society for Computer Preservation) e Fondazione Möbius.

Dopo l’introduzione fatta da Alessio Petralli, direttore della Fondazione Möbius, hanno parlato Sergio Gervasini (vicepresidente ESoCoP) e poi Marco Foco (Senior Manager presso NVIDIA), Fabio Guido Massa (Senior System Administrator), e Carlo Spinedi (presidente AStISI), presentando il contesto storico e le vicende tecniche e umane legate a oggetti fondamentali della storia dell’informatica come l’Apple II, il Commodore PET e il TRS-80, di cui c’erano in sala dei magnifici esemplari.

Ecco qualche foto della serata e dei suoi protagonisti umani e tecnologici.

Il professor Carlo Spinedi (AStISI) e, sullo sfondo, Sergio Gervasini (ESoCoP).
Marco Foco (NVIDIA).
Fabio Guido Massa.
Sergio Gervasini (ESoCoP).
Un Commodore PET aperto.
Un Apple II.
Foto di gruppo finale.

2024/03/22

Podcast RSI - Story: Dietro le quinte delle truffe sugli investimenti in criptovalute

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: voce di donna complice dei truffatori che parla con una delle vittime: “Nice to see you, I will message on WhatsApp, OK?”]

Pig butchering: letteralmente, “macellazione del maiale”. È il nome spietato che viene usato dai criminali informatici per indicare un particolare tipo di truffa online basata su un misto di belle ragazze, criptovalute, false app e soprattutto call center organizzatissimi dove lavorano migliaia di persone. Se siete stati contattati da qualcuno che vi offre metodi rapidi per fare soldi con Bitcoin e simili e avete cominciato a fidarvi perché vi sono davvero arrivati dei soldi sul vostro conto corrente, fate attenzione: è quasi sicuramente una truffa.

Questa è la storia di un caso concreto di pig butchering, portato alla luce da un esperto del settore, che mostra l’incredibile sofisticazione raggiunta da queste bande criminali organizzate e rivela dove si trovano le loro sedi operative e le tecniche usate per ingannare le vittime.

Benvenuti alla puntata del 22 marzo 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo: un po’ giù di voce, come potete sentire.

[SIGLA di apertura]

Lo schema della truffa

Da alcuni anni su Internet è facile imbattersi in una truffa che è particolarmente crudele già a partire dal suo nome: viene chiamata pig butchering, ossia “macellazione del maiale”, perché è così che i criminali vedono le proprie vittime. I truffatori selezionano i propri bersagli usando le informazioni che trovano sui social network: età, situazione sentimentale, foto. Scelgono le persone che non hanno un partner e che mostrano nelle fotografie sui social un’età adulta e suggeriscono una certa disponibilità economica significativa perché mostrano per esempio la loro auto, il loro abbigliamento o le immagini dei loro viaggi.

Una volta scelta la vittima, i criminali la circuiscono con il metodo ormai tristemente classico del romance scam o truffa sentimentale: si presentano come uomini o donne molto attraenti, intrecciano una lunga relazione a base di messaggi e foto, senza chiedere nulla di insolito, diventano conoscenti di lunga data e si conquistano la fiducia del bersaglio con parole affettuose e una presenza costante e piacevole.

L’inganno scatta solo dopo settimane o anche mesi di corteggiamento, ma a differenza della truffa classica, nella quale il criminale finge di avere bisogno di soldi temporaneamente per tirarsi fuori da un guaio burocratico o di salute, nel pig butchering non c’è nessuna richiesta di denaro, almeno inizialmente, e questo fa abbassare ancora di più le difese psicologiche delle vittime.

A un certo punto il truffatore, ormai diventato uno di famiglia per la sua vittima, “rivela” a quella vittima di aver fatto un ottimo investimento in criptovalute e le propone di fare altrettanto, dandole tutte le istruzioni necessarie su come versare i soldi per aprire un conto. Ma l’investimento non esiste, il conto è una finzione gestita dal truffatore o da suoi complici, e i soldi investiti dalla vittima non verranno mai restituiti integralmente.

Fin qui lo schema è abbastanza noto, anche se c’è sempre qualcuno che non lo conosce e ci casca perdendo somme ingenti, a giudicare dalle telefonate e dalle mail che mi arrivano continuamente: ma grazie all’esperto di truffe informatiche Jim Browning possiamo andare oltre questo schema astratto e vedere concretamente dove e come lavorano questi criminali.

Dentro la sede dei criminali

Browning ha infatti pubblicato su Youtube un’inchiesta in cui mostra come funziona in dettaglio questa truffa, con immagini girate all’interno degli edifici dove lavorano migliaia di persone che passano la giornata a cercare online vittime da sedurre e derubare in tutto il mondo.

Se vi siete mai chiesti come facciano le persone a cadere in queste trappole, la ragione principale è che sono costruite in maniera estremamente professionale, assumendo persino delle modelle in carne e ossa per fare le conversazioni online con le vittime.

Nel caso descritto da Browning, la sede dei criminali è un grande complesso di edifici ad alcuni chilometri dal centro di Dubai, negli Emirati Arabi Uniti. Otto palazzine di otto piani occupate in buona parte da un esercito di imbroglioni, così numeroso che è stato necessario installare un’antenna cellulare mobile apposita per gestire tutto il loro traffico telefonico. Browning indica l’indirizzo preciso, perché tanto sa benissimo che entro pochi giorni questi professionisti del crimine avranno già traslocato altrove.

Questi edifici sono pieni di postazioni dotate di computer, sui quali sono installate le app di vari siti di incontri per persone in cerca di compagnia. È questo il serbatoio iniziale dal quale i truffatori pescano le proprie vittime, usando delle VPN per fingere di essere in un paese insospettabile e così eludere i controlli dei gestori di questi siti di incontri.

Il copione di chi lavora a queste postazioni è sempre lo stesso: fingere di essere una persona facoltosa e attraente che ha uno stile di vita molto dispendioso, esibito tramite foto e video eloquenti. I gestori della truffa gli affidano un personaggio preciso e dettagliato e gli forniscono un software che traccia altrettanto dettagliatamente l'andamento di ciascun tentativo di raggiro.

Dopo aver agganciato la vittima su un sito di incontri, facendo per esempio con lui o con lei delle chat romantiche o erotiche, il criminale cerca sempre di portare la conversazione fuori da questi siti, che sono monitorati contro le truffe, e invita a proseguirla su WhatsApp o su Telegram, dove non c’è nessuna salvaguardia.

La conversazione prosegue in maniera inizialmente innocente, con un po’ di chiacchiere per presentarsi e magari qualche foto di qualche piatto consumato in un ristorante costoso ed esotico. Il truffatore dice di lavorare nel settore della finanza, e a un certo punto si offre di condividere alcuni dei suoi trucchi per fare soldi. Un’offerta molto generosa da fare a un perfetto sconosciuto, e questo dovrebbe insospettire, ma l’inganno è costruito così bene che il sospetto passa in fretta.

I truffatori, spiega Browning, adoperano un’app chiamata Hello World Pro, che è capace di gestire varie sessioni Telegram e WhatsApp contemporaneamente e traduce la conversazione dall’inglese, che è la lingua solitamente parlata dal criminale, verso la lingua della vittima. C’è anche un gruppo Telegram usato da tutti i truffatori della banda per comunicare con i propri capi e i propri colleghi.

Gli operatori di questi call center professionalissimi sono in molti casi dei migranti, che vengono sfruttati dai gestori, che sono cinesi. I contratti sono in inglese e cinese; tutti i computer sono impostati in cinese e anche le reti Wi-Fi usate nei call center hanno nomi cinesi. Gli operatori lavorano e vivono come schiavi e i loro datori di lavoro sequestrano i loro passaporti.

Le dimensioni di questa organizzazione, una delle tante del suo genere, sono impressionanti. Browning riesce a procurarsi la planimetria degli edifici in cui si svolge la truffa e nota che ci sono oltre cinquanta stanze per piano, ciascuna stanza è occupata da quattro operatori, e ci sono otto piani per ciascuno dei quattro edifici coinvolti. Probabilmente qui lavorano oltre mille persone, reclutate tramite il passaparola dicendo che si tratta di un lavoro di marketing regolare.

Solo dopo che il lavoratore firma il contratto e inizia a lavorare si rende conto che si tratta di una truffa, con tanto di copione dettagliato di una quindicina di pagine, che si articola su vari giorni, fatto apposta per conquistare man mano la fiducia della vittima. Gli operatori vengono pagati a commissione: se non riescono a reclutare vittime non prendono soldi e vengono licenziati e rimpiazzati da altri disperati in cerca di lavoro.

Tutta questa organizzazione, però, serve solo per gestire il primo livello della truffa, perché la trappola è ancora più complessa.

Trappola professionale

Per riuscire a convincere una persona ad affidare a uno sconosciuto i propri soldi, magari i risparmi di una vita, è necessario costruire una situazione di fiducia, e per farlo i gestori della truffa assumono anche modelle in carne e ossa, donne attraenti reali, e organizzano videochiamate fra queste donne e le vittime, guidandole anche qui con un copione, per far vedere che la persona con la quale le vittime stanno chattando esiste veramente.

[CLIP: voce di donna complice dei truffatori che parla in videochiamata in diretta con una delle vittime: “Nice to see you, I will message on WhatsApp, OK? OK, thank you, bye bye, gracias”]

Browning riesce anche a mostrare una di queste modelle grazie a delle riprese effettuate da un lavoratore pentito.

[CLIP: voce di donna che parla in inglese a un interlocutore nel call center]

Lei dice senza troppi giri di parole che le sue uniche alternative erano fare la escort o fare video per le piattaforme di pornografia e siccome non voleva che la sua famiglia la vedesse su un sito a luci rosse ha scelto questa carriera. E così si presta a conquistare la fiducia di gente che, grazie a lei, perderà tutti i propri soldi.

Nella fase successiva del raggiro, la modella invita la vittima a iscriversi a un servizio legittimo di compravendita di criptovalute, come per esempio Binance. I gestori della truffa le mettono a disposizione screenshot già pronti, con freccine esplicative chiarissime, per spiegare alle vittime esattamente come procedere. È tutto molto, molto professionale e rassicurante.

È solo a questo punto che scatta la trappola vera e propria. Browning spiega che i truffatori chiedono alla vittima di scaricare un’app di compravendita di criptovalute, che è accompagnata da precisi video tutorial su YouTube che spiegano come usarla e da recensioni che ne confermano in apparenza la bontà e affidabilità totale. Ma l’app, i tutorial e le recensioni sono tutte parte della finzione: i gestori si intascano subito i soldi investiti dalla vittima e non fanno altro che mostrare un saldo fittizio sullo schermo del telefonino.

Fra l’altro, molti di questi truffatori invitano le vittime a reclutare altre persone, in un classico schema a piramide, col risultato che può capitare che la proposta di iscriversi a questo raggiro ci arrivi da un amico di cui ci fidiamo e che è caduto nella trappola. Attenzione, quindi, anche agli amici che ci promettono rendimenti mirabolanti.

Un altro modo usato dai truffatori per rendersi credibili è restituire alle vittime una parte del denaro che hanno investito. Sì, i soldi arrivano davvero, e vanno veramente sul conto della vittima presso una banca regolare. Ma non sono mai tutti quelli affidati ai criminali.

Ci possono essere molte variazioni a questo schema generale, ma il principio di fondo è che una persona molto attraente, solitamente una giovane donna, vi contatta su WhatsApp o in un sito di incontri e dopo un po’ vi incoraggia a investire i vostri soldi in qualche affare online che probabilmente non avete mai sentito nominare. Se lo fate e poi cercate di farvi ridare il vostro denaro, salterà fuori che il bonifico è in attesa di approvazione o ci sarà qualche altra scusa, e non rivedrete mai tutti i soldi che avete inviato.

Se vi riconoscete in questa descrizione, troncate i rapporti con i truffatori, e non mandate loro altri soldi sperando che vi ridiano quelli già dati: sono persi. Segnalate la vicenda alla polizia, che ne ha bisogno a fini statistici, e non fidatevi di sedicenti società di recupero di criptovalute che vi contatteranno promettendo di farvi riavere i vostri risparmi se solo anticipate le spese: sono complici dei truffatori. E se conoscete qualcuno che si trova in questa situazione, avvisatelo che è caduto in una trappola estremamente professionale, e preparatevi al fatto che non vi crederà.

Vista la provenienza specifica dei capibanda, è proprio il caso di dire che si tratta di uno schema crudelissimo a scatole cinesi, in cui l’unico modo per vincere è non partecipare. Fate attenzione, e mettete in guardia amici e colleghi.