È disponibile subito il podcast di oggi de
Il Disinformatico
della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto:
lo trovate
qui sul sito della RSI
(si apre in una finestra/scheda separata) e lo potete scaricare
qui.
Le puntate del Disinformatico sono ascoltabili anche tramite
iTunes,
YouTube Music,
Spotify
e
feed RSS.
Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle
fonti di questa puntata, sono qui sotto.
---
[CLIP:
TF1 annuncia l’arresto di Durov]
Il 24 agosto scorso Pavel Durov, fondatore e CEO della popolarissima
piattaforma di messaggistica Telegram, è stato fermato in Francia [RSI] e successivamente incriminato dalle autorità francesi e rilasciato su
cauzione, con l’obbligo di restare nel paese. L’incriminazione parla di
“rifiuto di comunicare le informazioni necessarie per le intercettazioni
autorizzate dalla legge”, “complicità” in reati e crimini gravissimi organizzati su o tramite
Telegram, e... omessa dichiarazione formale di importazione in Francia di un
sistema crittografico?
Questo terzo capo di incriminazione può sembrare dissonante rispetto agli
altri due, ma ha una sua spiegazione che è importante per capire perché il
fermo di Durov ha scatenato un terremoto che ha scosso molti degli oltre 900
milioni di utenti di Telegram.
Questa è la storia, fin qui, di questo terremoto e delle sue implicazioni per
la sicurezza e la privacy, non tanto per i criminali che usano Telegram, ma
per gli utenti onesti di questa piattaforma, specialmente quelli che vivono in
paesi dove i diritti umani non vengono rispettati e i dissidenti vengono
perseguitati. Questi utenti in questi anni si sono affidati a Telegram
contando sulla sua promessa di non collaborare con nessun governo, e ora
scoprono che le loro conversazioni su questa piattaforma non erano così
protette e segrete come pensavano, anche perché Telegram, dopo il fermo e
l’incriminazione di Durov, ha silenziosamente cambiato le proprie regole.
Benvenuti alla puntata del 13 settembre 2024 del Disinformatico, il
podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie
strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
---
Telegram è diverso dagli altri sistemi di messaggistica, come Signal o
WhatsApp, per due ragioni principali. La prima è che offre i cosiddetti
canali, ai quali può iscriversi un numero sostanzialmente illimitato di
persone per seguire i messaggi pubblicati da un singolo utente o da una
specifica organizzazione.
[i gruppi di Telegram possono avere fino a
200.000 partecipanti]
Questa capacità di far arrivare un messaggio anche a milioni di persone, senza
nessuna delle restrizioni o dei filtraggi tipici di altre piattaforme, rende
Telegram più allettante rispetto alla concorrenza, per esempio per i criminali
informatici e anche per quelli non informatici, dai trafficanti di droga ai
terroristi ai pedofili, che possono usarlo (e lo usano) per pubblicizzare i
propri prodotti e servizi o le proprie terribili azioni e gestire la propria
clientela in modo efficiente e discreto. Ovviamente queste stesse
caratteristiche sono utili anche per chi lotta contro censure, persecuzioni o
restrizioni delle libertà.
E così Telegram, per chi vive in Russia, è uno dei pochissimi canali
attraverso i quali è possibile ricevere informazioni non filtrate dalla
censura governativa. Durov lasciò la Russia dieci anni fa, nel 2014, proprio
per non dover cedere al governo i dati dei cittadini raccolti dalla sua
piattaforma precedente, Vkontakte, una sorta di Facebook nazionale, e per non
doverla censurare. A modo suo, Pavel Durov ha esibito dei princìpi etici molto
saldi: non collaborare con nessuna autorità, perché chi per un certo
governo è un sovversivo per un altro governo è un dissidente, e chi è
considerato terrorista da una parte è visto come combattente per la libertà
dall’altra.
La seconda ragione è che Telegram, intesa come azienda, si è sempre vantata di
rifiutare qualunque collaborazione con le forze di polizia di qualunque paese
e di non fare moderazione: nelle
pagine
del suo sito ha dichiarato che
“Tutte le chat e i gruppi di Telegram sono territorio privato dei loro
rispettivi partecipanti. Non eseguiamo alcuna richiesta relativa ad esse
[...] Ad oggi, abbiamo divulgato 0 byte di dati a terzi, inclusi i governi
[…] Mentre blocchiamo bot e canali legati al terrorismo (ad esempio legati
all'ISIS), non bloccheremo nessuno che esprime pacificamente altre opinioni.”
Il risultato è che oggi 900 milioni e passa di persone in tutto il mondo si
affidano a Telegram per comunicare di tutto, dagli annunci di estorsione
informatica ai consigli delle mamme appassionate di rimedi naturali alle
malattie, dagli amori clandestini ai film piratati, e di quei 900 milioni e
passa circa 10 milioni sono utenti paganti, i cui abbonamenti permettono
all’azienda Telegram di operare. Ma a fine agosto per tutte queste persone è
arrivato un brusco risveglio.
---
Prima di tutto, il fermo di Durov ha fatto parlare molto di Telegram anche nei
media generalisti, e quindi finalmente molti utenti non esperti sono venuti a
conoscenza di un dettaglio tecnico cruciale: le normali chat di Telegram, le
sue chat di gruppo e i messaggi diffusi in massa attraverso i suoi canali
non sono protetti tramite la crittografia end-to-end, come lo sono
invece quelli di WhatsApp o di Signal.
Soltanto le cosiddette chat segrete di Telegram godono di questa
protezione, che rende tecnicamente impossibile per il fornitore di un servizio
di messaggistica collaborare con le autorità facendo leggere i messaggi dei
sospettati. Crittografia end-to-end significa infatti che neppure il
fornitore del servizio è in grado di leggere i messaggi scambiati dai suoi
utenti e quindi può respingere le richieste di accesso di qualunque autorità
semplicemente spiegando che non le può soddisfare per motivi puramente
tecnici. Non può fornire i messaggi perché non è in grado di leggerli.
Ma mentre su WhatsApp questa protezione è applicata automaticamente a tutti i
messaggi di tutti gli utenti, su Telegram è appunto necessario attivarla
manualmente, e comunque la crittografia end-to-end non è disponibile
nelle comunicazioni di gruppo ma solo in quelle dirette tra due persone, come
spiegato in dettaglio sul sito di Telegram nelle
pagine tecniche,
quelle che non legge nessuno. E così pochissimi utenti conoscono e usano
queste chat segrete.
[oltretutto le chat segrete sono particolarmente
difficili da attivare]
In altre parole, il grosso del traffico di messaggi, leciti e illeciti,
trasportati da Telegram è leggibile dai tecnici di Telegram, è archiviato sui
server dell’azienda e quindi potrebbe essere consegnato alle autorità
di qualunque paese, democratico o non democratico. Nessun problema per chi usa
Telegram per coordinare le attività di un circolo scacchistico, ma per
chiunque usi Telegram per proteggersi da autorità oppressive o per scopi non
propriamente legali è uno shock scoprire che quello spazio che riteneva sicuro
non lo è affatto.
Va detto che Telegram ha protetto i messaggi dei suoi utenti in altri modi: lo
ha fatto tramite la crittografia dei propri server, di cui però ha le chiavi,
che quindi gli possono essere chieste dalle autorità; e lo ha fatto
distribuendo la propria infrastruttura in vari paesi, per cui i messaggi degli
utenti sono sparsi in vari frammenti sotto giurisdizioni molto differenti, che
dovrebbero quindi avviare un’azione legale coordinata e congiunta per avere
accesso a quei messaggi.
[anche per le chat segrete, comunque, ci sono
dubbi
tecnici
sulla qualità della crittografia di Telegram, che usa una tecnologia
“indipendente”, ossia autoprodotta. E resta la questione dei metadati,
comunque facilmente accessibili]
Ma il fatto stesso che i messaggi siano in qualche modo accessibili
all‘azienda significa che un governo sufficientemente attrezzato, agguerrito e
deciso potrebbe effettuare un attacco informatico a Telegram per leggersi quei
messaggi. Oppure, più semplicemente, potrebbe trovare metodi non informatici
per indurre l’azienda a collaborare. Per esempio, un fermo e un’incriminazione
del suo fondatore e amministratore, magari con la scusa della mancata
dichiarazione formale di aver importato in Francia un sistema crittografico.
Telegram opera anche in Francia da anni, alla luce del sole, per cui è
presumibile che le autorità francesi fossero ben consapevoli da tempo di
questa mancata dichiarazione
prevista
dalle leggi nazionali, eppure non hanno mai fatto nulla per contestare
l’omissione prima di oggi.
[la normativa francese include la facoltà di
chiedere
alle aziende di fornire “le caratteristiche tecniche e il codice sorgente dei mezzi crittografici
oggetto della dichiarazione”]
E in effetti dopo l’intervento delle autorità francesi su Telegram è cambiato
qualcosa di importante.
---
Intorno al 5 settembre scorso le fiere parole di rifiuto di qualunque
collaborazione che ho citato prima sono state riscritte sul sito di Telegram.
Adesso Telegram non dice più che
“Tutte le chat e i gruppi di Telegram sono territorio privato dei loro
rispettivi partecipanti”
e che non esegue alcuna richiesta relativa ad esse. Al posto di queste parole
c’è l’annuncio che
“Tutte le app di Telegram dispongono di pulsanti "Segnala” che consentono
di segnalare i contenuti illegali ai nostri moderatori, con pochi
tocchi.”
Le FAQ di Telegram com’erano
prima
del fermo di Durov...
... e come sono adesso.
Non è una novità in senso stretto: questa funzione di segnalazione esiste da
tempo nell’app. Ma è interessante che sia stata messa in evidenza e che siano
scomparse quelle parole sul “territorio privato”, quasi a suggerire un
nuovo corso di collaborazione con le autorità.
Durov ha usato parole piuttosto concilianti anche in un suo annuncio personale
[https://t.me/durov/342], dicendo
che
“l’improvviso aumento del numero di utenti a 950 milioni ha causato dei
problemi legati alla crescita che hanno agevolato i criminali nell’abusare
della nostra piattaforma […] è mio obiettivo personale assicurarmi che miglioreremo significativamente le cose
in questo senso”.
Pavel Durov ha inoltre sottolineato l’impegno di Telegram contro gli abusi sui
minori, citando l’apposito canale di Telegram
[@StopCA] che indica, giorno per
giorno, i numeri dei gruppi e canali banditi in relazione a questi abusi: sono
quasi duemila al giorno. Ha dichiarato anche che Telegram rimuove
quotidianamente “milioni di post nocivi” e ha
“canali diretti di comunicazione con le organizzazioni non governative per
gestire più rapidamente le richieste urgenti di moderazione.”
Sembra insomma che Durov voglia lasciarsi alle spalle numeri preoccupanti,
come le 2460 richieste della polizia francese a Telegram rimaste senza
risposta
[Libération, paywall], e una reputazione guadagnata sul campo di non collaborare con le autorità
nemmeno quando si tratta di situazioni di crimine indiscusso e non di
questioni di libertà di parola.
[In realtà qualche caso di “collaborazione”, o meglio di azione forzata,
c’è stato: la EFF
nota
che Telegram è stata multata dalle autorità tedesche nel 2022 per non aver
predisposto un iter legale per la segnalazione di contenuti illegali e per
non aver nominato un referente tedesco per la ricezione delle comunicazioni
ufficiali e che il Brasile ha multato Telegram nel 2023 per non aver sospeso
gli account dei sostenitori dell’ex presidente Bolsonaro]
[Secondo
Politico.eu, l’indagine francese che ha portato al fermo di Durov sarebbe iniziata
quando un agente sotto copertura ha interagito con una persona sospettata di
essere un predatore sessuale su Telegram e questa persona ha poi ammesso di
aver violentato una ragazza giovane. Quando le autorità hanno chiesto a
Telegram l’identità di questo utente, Telegram si è rifiutata, e così gli
inquirenti si sono concentrati sulle persone che gestiscono Telegram]
A questo restyling di Telegram contribuisce anche la rimozione della
funzione Persone vicine, annunciata personalmente da Durov
[https://t.me/durov/343]. Questa
funzione permetteva a un utente di localizzare gli altri utenti di Telegram
situati nelle sue vicinanze, con rischi fin troppo evidenti di abusi e di
agevolazione dello stalking.
[la funzione era però anche
utile per
l’OSINT investigativa]
Numerosi criminali online che usano Telegram, intanto, hanno reagito alla
situazione chiudendo i propri account sulla piattaforma, un po’ perché temono
che i loro dati e quelli della loro clientela possano finire nelle mani delle
autorità, e un po’ perché hanno paura che i loro account verranno chiusi, ora
che Telegram dice di volersi occupare seriamente della moderazione
[404 Media].
La parola chiave di tutta questa vicenda sembra essere moderazione, o
meglio, carenza di moderazione dei contenuti diffusi da Telegram, anche dopo
che sono stati segnalati, come nota anche l’autorevole
Electronic Frontier Foundation
riportando una dichiarazione dell’Ofmin, l’ente francese incaricato di
investigare sulle minacce alla sicurezza online dei minori, notando che
secondo la legge francese consentire la distribuzione di contenuti o servizi
illegali di cui si è a conoscenza è un reato.
Gli eventuali cambiamenti concreti di Telegram diverranno visibili nei
prossimi mesi, ma il presupposto delle autorità francesi che la mancanza di
moderazione dei contenuti illegali segnalati comporti una
responsabilità penale del titolare di un sito probabilmente sta facendo venire
i brividi ad altri CEO di piattaforme di messaggistica e social network che
non hanno la reputazione di essere “paradisi anarchici”, per citare
l’espressione usata da Durov, ma se la meriterebbero. Perché anche Instagram,
per esempio, ha lo stesso problema di omessa moderazione di contenuti anche
dopo che sono stati segnalati.
---
Lo so perché anch’io, come tanti altri utenti, segnalo spesso gli spezzoni di
video pornografici e di abusi su minori inseriti nei reel di Instagram
dopo qualche secondo di contenuto non controverso, ma la moderazione di questa
piattaforma risponde puntualmente che il video è conforme alle norme della
comunità e non lo rimuove. Eppure la violazione delle norme sarebbe
assolutamente ben visibile se solo il moderatore, o l’intelligenza artificiale
che forse lo ha sostituito, si degnasse di esaminare il video per qualche
secondo in più.
[non pubblico esempi per ovvie ragioni, ma se i responsabili di Instagram
vogliono sapere i dettagli, ho screenshot e registrazioni dei reel in
questione - solo di quelli pornografici, per non detenere materiale
illegale, di cui posso comunque fornire i link]
X, quello che una volta era Twitter, è anche peggio, soprattutto per chi è
genitore di figli molto giovani che scalpitano per entrare nei social network.
La pornografia e la violenza, anche di tipi estremi, sono accessibili su X
semplicemente cambiando un’impostazione dell’app, ed è cosi da ben prima della
sua acquisizione da parte di Elon Musk; dopo questa acquisizione sono
aumentati i contenuti riguardanti odio, discriminazione e razzismo. Segnalarli
è inutile, perché la loro presenza è esplicitamente prevista dalle regole di X
ed è coperta dalla foglia di fico decisamente troppo corta di un messaggio di
avvertimento, facilissimo da eludere, e dall’appoggio esplicito di Musk
stesso.
[Le info di X su come segnalare contenuti sono
qui;
questa
è la media policy
di X sui contenuti per adulti;
questo è il
post su X nel quale Musk dice a Taylor Swift che le vuole “dare un figlio”,
cosa che persino le Note della Collettività di X considerano una molestia
sessuale inaccettabile;
queste
(Variety) sono le reazioni al post di Musk]
Il segnale mandato dalle autorità francesi è molto forte e a differenza delle
segnalazioni degli utenti è difficile da ignorare: i gestori delle grandi
piattaforme, se sono avvisati del fatto che ospitano contenuti o comportamenti
illegali, non possono far finta di niente solo perché sono straricchi. Hanno
delle responsabilità legali e soprattutto sociali, visto il peso che i loro
servizi hanno nella formazione delle giovani generazioni e anche di quelle
meno giovani.
A questo punto viene da chiedersi se dopo quello che è successo a Pavel Durov,
Mark Zuckerberg e Elon Musk abbiano già mandato un breve promemoria ai piloti
del loro jet personali: “Evitare Francia”.
Fonti aggiuntive: