2019/02/12

Youtube iperamplifica il complottismo, promette che smetterà

Dietro il boom dei complottismi c’è, almeno in parte, l’intelligenza artificiale. Se guardate su Youtube un video dedicato a un certo argomento, il sistema di intelligenza artificiale di Youtube vi propone altri video dello stesso genere, e così via, in un crescendo iperpersonalizzato per ogni utente che ha un solo scopo: massimizzare il tempo che trascorrete su Youtube, perché più ne passate, più vedete pubblicità e più Google (proprietaria di Youtube) incassa.

L’idea in sé sembra ragionevole ed è la chiave del successo economico di Youtube. Ma ha una conseguenza inattesa: quest’intelligenza artificiale viene man mano alterata dagli utenti stessi.

Lo spiega bene Guillaume Chaslot, un ex dipendente di Youtube che ha contribuito allo sviluppo del sistema automatico di raccomandazione dei video. Chi passa tantissimo tempo su Youtube influenza fortemente quali video vengono suggeriti anche agli altri utenti. I video visti da questi grandi consumatori diventano ultrapopolari, e quindi i creatori di video ne producono altri dello stesso stampo per ottenere popolarità e incassi. Così gli altri utenti passano ancora più tempo a guardare quei tipi di video, diventando a loro volta grandi consumatori, che influenzano i suggerimenti per gli altri, e così via.

Questo può sembrare innocuo se i video sono quelli di Peppa Pig: Youtube proporrà altri cartoni animati analoghi. Ma quando i video consigliati parlano della Terra piatta, degli alieni che rapiscono le persone o dei vaccini come complotto delle multinazionali, allora nasce un problema. Un paio di anni fa Chaslot si è accorto che l’intelligenza artificiale di Youtube raccomandava i video che sostenevano le tesi di complotto molto più di quelli che raccontavano i fatti.

Per esempio, i video dei terrapiattisti venivano promossi circa dieci volte più di quelli che spiegano che la Terra è sferica, generando una visibilità stratosferica per queste idee distorte, e il canale ufologico Secureteam10 aveva raccolto mezzo miliardo di visualizzazioni di video falsi o ingannevoli, pieni di accuse di cospirazioni governative.

Chi entra nella spirale del complottismo, magari solo per curiosità, viene insomma bombardato da video che rinforzano questa visione deformata del mondo, mentre i video che potrebbero levargli i dubbi gli vengono nascosti. Questo crea l’impressione che una tesi di complotto sia molto più diffusa e credibile di quanto lo sia in realtà e può esasperare situazioni personali labili. Chaslot cita il caso di Buckey Wolfe, un uomo di Seattle che si è convinto che suo fratello era un uomo lucertola e lo ha ucciso. Il canale Youtube preferito di Wolfe era Secureteam10, e gli altri erano tutti dello stesso genere.

È impossibile stabilire quanto abbia avuto peso l’intelligenza artificiale di Youtube nel rinforzare il disagio mentale di Buckey Wolfe, ma di certo non ha aiutato, e tutti conosciamo qualcuno che si è fatto sedurre dal cospirazionismo grazie ai video. Pochi giorni fa Youtube ha annunciato che cambierà le proprie regole di raccomandazione di contenuti per non promuovere la disinformazione. È un buon inizio, ma sta a noi essere consapevoli di questi meccanismi di manipolazione.


Approfondimenti


Aggiungo qui alcune informazioni che per motivi di lunghezza non ho potuto includere nel testo pubblicato qui sopra, che ho preparato per la mia rubrica settimanale La Rete in tre minuti di Radio Inblu.

Chi volesse provare ad azzerare la personalizzazione delle raccomandazioni di Youtube può esplorare la propria cronologia presso https://www.youtube.com/feed/history/search_history e cliccare su Cancella tutta la cronologia delle ricerche e su cancella tutta la cronologia visualizzazioni, oppure prendere l’abitudine di usare Youtube in una finestra di navigazione privata.

Qui sotto potete guardare un video (ironicamente ospitato da Youtube) che illustra in inglese le osservazioni di Chaslot su Youtube.


E quella che segue è la spiegazione via Twitter di Chaslot che ha ispirato questo mio articolo: include la triste esperienza personale del ricercatore con un conoscente caduto nella spirale del complottismo e molti altri dettagli importanti, come l’organizzazione Algotransparency.org fondata da Chaslot per incoraggiare la trasparenza sugli algoritmi di AI.







































Nessun commento:

Posta un commento

Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.

Pagine per dispositivi mobili