L’idea in sé sembra ragionevole ed è la chiave del successo economico di Youtube. Ma ha una conseguenza inattesa: quest’intelligenza artificiale viene man mano alterata dagli utenti stessi.
Lo spiega bene Guillaume Chaslot, un ex dipendente di Youtube che ha contribuito allo sviluppo del sistema automatico di raccomandazione dei video. Chi passa tantissimo tempo su Youtube influenza fortemente quali video vengono suggeriti anche agli altri utenti. I video visti da questi grandi consumatori diventano ultrapopolari, e quindi i creatori di video ne producono altri dello stesso stampo per ottenere popolarità e incassi. Così gli altri utenti passano ancora più tempo a guardare quei tipi di video, diventando a loro volta grandi consumatori, che influenzano i suggerimenti per gli altri, e così via.
Questo può sembrare innocuo se i video sono quelli di Peppa Pig: Youtube proporrà altri cartoni animati analoghi. Ma quando i video consigliati parlano della Terra piatta, degli alieni che rapiscono le persone o dei vaccini come complotto delle multinazionali, allora nasce un problema. Un paio di anni fa Chaslot si è accorto che l’intelligenza artificiale di Youtube raccomandava i video che sostenevano le tesi di complotto molto più di quelli che raccontavano i fatti.
Per esempio, i video dei terrapiattisti venivano promossi circa dieci volte più di quelli che spiegano che la Terra è sferica, generando una visibilità stratosferica per queste idee distorte, e il canale ufologico Secureteam10 aveva raccolto mezzo miliardo di visualizzazioni di video falsi o ingannevoli, pieni di accuse di cospirazioni governative.
Chi entra nella spirale del complottismo, magari solo per curiosità, viene insomma bombardato da video che rinforzano questa visione deformata del mondo, mentre i video che potrebbero levargli i dubbi gli vengono nascosti. Questo crea l’impressione che una tesi di complotto sia molto più diffusa e credibile di quanto lo sia in realtà e può esasperare situazioni personali labili. Chaslot cita il caso di Buckey Wolfe, un uomo di Seattle che si è convinto che suo fratello era un uomo lucertola e lo ha ucciso. Il canale Youtube preferito di Wolfe era Secureteam10, e gli altri erano tutti dello stesso genere.
È impossibile stabilire quanto abbia avuto peso l’intelligenza artificiale di Youtube nel rinforzare il disagio mentale di Buckey Wolfe, ma di certo non ha aiutato, e tutti conosciamo qualcuno che si è fatto sedurre dal cospirazionismo grazie ai video. Pochi giorni fa Youtube ha annunciato che cambierà le proprie regole di raccomandazione di contenuti per non promuovere la disinformazione. È un buon inizio, ma sta a noi essere consapevoli di questi meccanismi di manipolazione.
Approfondimenti
Aggiungo qui alcune informazioni che per motivi di lunghezza non ho potuto includere nel testo pubblicato qui sopra, che ho preparato per la mia rubrica settimanale La Rete in tre minuti di Radio Inblu.
Chi volesse provare ad azzerare la personalizzazione delle raccomandazioni di Youtube può esplorare la propria cronologia presso https://www.youtube.com/feed/history/search_history e cliccare su Cancella tutta la cronologia delle ricerche e su cancella tutta la cronologia visualizzazioni, oppure prendere l’abitudine di usare Youtube in una finestra di navigazione privata.
Qui sotto potete guardare un video (ironicamente ospitato da Youtube) che illustra in inglese le osservazioni di Chaslot su Youtube.
E quella che segue è la spiegazione via Twitter di Chaslot che ha ispirato questo mio articolo: include la triste esperienza personale del ricercatore con un conoscente caduto nella spirale del complottismo e molti altri dettagli importanti, come l’organizzazione Algotransparency.org fondata da Chaslot per incoraggiare la trasparenza sugli algoritmi di AI.
YouTube announced they will stop recommending some conspiracy theories such as flat earth.— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
I worked on the AI that promoted them by the *billions*.
Here is why it’s a historic victory. Thread. 1/https://t.co/wJ1jbUcvJE
Brian is my best friend’s in-law. After his dad died in a motorcycle accident, he became depressed. He fell down the rabbit hole of YouTube conspiracy theories, with flat earth, aliens & co. Now he does not trust anyone. He stopped working, seeing friends, and wanting kids. 2/— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
Brian spends most of his time watching YouTube, supported by his wife.— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
For his parents, family and friends, his story is heartbreaking.
But from the point of view of YouTube’s AI, he’s a jackpot.
3/
We designed YT’s AI to increase the time people spend online, because it leads to more ads. The AI considers Brian as a model that *should be reproduced*. It takes note of every single video he watches & uses that signal to recommend it to more people 4/https://t.co/xFVHkVnNLy— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
How many people like Brian are allured down such rabbit holes everyday day?— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
By design, the AI will try to get as many as possible.
5/
Brian's hyper-engagement slowly biases YouTube:— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
1/ People who spend their lives on YT affect recommendations more
2/ So the content they watch gets more views
3/ Then youtubers notice and create more of it
4/ And people spend even more time on that content. And back at 1
6/
This vicious circle was also observed with https://t.co/XRaKdOQiKz, and it explains why the bot became racist in less than 24 hours.— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
=> Platforms that use AIs often get biased by tiny groups of hyper-active users.
7/https://t.co/bM6NNlHqqd
Example of YT vicious circle: two years ago I found out that many conspiracies were promoted by the AI much more than truth, for instance flat earth videos were promoted ~10x more than round earth ones 🌎🤯— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
8/https://t.co/dCSTGftADO
I was not the only one to notice AI harms. @tristanharris talked about addiction. @zeynep talked about radicalization. @noUpside, political abuse and conspiracies. @jamesbridle, disgusting kids videos. @google's @fchollet, the danger of AI propaganda:https://t.co/NCPB9T7EtA— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
9/
Since then many newspapers spoke about AI harms, as for instance: @wsj @guardian @nytimes @BuzzFeed @washingtonpost @bloomberg— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
@huffpost @dailybeast @vox @NBCNews @VICE @cjr @techreview
Journalism matters
10/
There are 2 ways to fix vicious circles like with "flat earth"— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
1) make people spend more time on round earth videos
2) change the AI
YouTube’s economic incentive is for solution 1).
After 13 years, YouTube made the historic choice to go towards 2)
Will this fix work? 11/
The AI change will have a huge impact because affected channels have billions of views, overwhelmingly coming from recommendations. For instance the channel secureteam10 made *half a billion* views with deceiving claims promoted by the AI, such as:https://t.co/ZLXyMGnGxg 12/— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
Note that #secureteam10 was the most liked channel of Buckey Wolfe, who came to believe his brother was a “lizard” and killed him with a sword.— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
To understand how he fell down the rabbit hole, see his 1312 public likes here:https://t.co/HmS06E4SBH https://t.co/5wQupfvKD1
13/
This AI change will save thousands from falling into such rabbit holes— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
(If it decreases between 1B and 10B views on such content, and if we assume one person falling for it each 100,000 views, it will prevent 10,000 to 100,000 "falls") 14/
A concern remains that other rabbit holes are arising. I created https://t.co/0RjD2PtTvV to identify and monitor harmful content recommended by the AI.— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
15/
Conclusion: YouTube's announcement is a great victory which will save thousands. It's only the beginning of a more humane technology. Technology that empowers all of us, instead of deceiving the most vulnerable.— Guillaume Chaslot (@gchaslot) 9 febbraio 2019
If you see something, say something.
16/
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.