Cerca nel blog

2018/05/25

Facebook pubblica finalmente gli standard interni per approvare o rimuovere contenuti

Pubblicazione iniziale: 2018/05/15. Ultimo aggiornamento: 2018/05/25 8:40.

Se usate Facebook, probabilmente vi sarà capitato di notare che alcuni post vengono rimossi con un avviso che spiega che non rispettano gli “standard della comunità”. Avrete anche notato che questi standard vengono applicati in maniera spesso incomprensibile e incoerente.

Per esempio, nel 2013 Facebook bloccò l’intero profilo del museo francese Jeu de Paume perché aveva pubblicato una singola foto in bianco e nero di un nudo femminile parziale. Nello stesso periodo, invece, Facebook ritenne che fotografie di un cane trascinato dietro un’automobile fino a lasciare una scia di sangue sotto il suo corpo fossero conformi agli “standard della comunità”, nonostante le segnalazioni.

Per anni Facebook ha bloccato e rimosso arbitrariamente immagini di donne che allattano ma ha lasciato passare, e tuttora lascia passare, post nei quali si istiga all’odio e si promuove il bullismo. Facebook aveva risposto a queste contestazioni introducendo nuove regole nel 2015, ma le cose non erano cambiate granché all’atto pratico.

Ora Facebook ci riprova: promette di aver compiuto un passo avanti verso la risoluzione di questi problemi, pubblicando finalmente questi standard interni, validi “in tutto il mondo per tutti i tipi di contenuti”. Li trovate, tradotti anche in italiano, presso www.facebook.com/communitystandards (vengono visualizzati nella lingua che usate per Facebook).

Vale la pena di leggerli per tentare di capire quali sono i limiti, non sempre intuitivi, di quello che Facebook ritiene accettabile. Per esempio, il social network boccia le minacce, ma solo se sono personali e credibili; vieta le immagini di nudo dei bambini, postate spesso dai genitori con buone intenzioni; non accetta il bullismo, a meno che riguardi personaggi pubblici.

I discorsi di incitazione all’odio occupano una sezione particolarmente corposa di questi standard e vengono vietati se si tratta di attacchi diretti alle persone sulla base di “razza, etnia, nazionalità di origine, religione, orientamento sessuale, sesso, genere o identità di genere, disabilità o malattia” e se si tratta di discorsi violenti o disumanizzanti o di incitazione all’esclusione o alla segregazione.

Le immagini di violenza, invece, vengono gestite da Facebook aggiungendo “un'etichetta di avviso ai contenuti particolarmente forti o violenti in modo che non possano essere visualizzati dai minori di 18 anni”: chi le vuole vedere dovrà cliccarvi sopra intenzionalmente.

Secondo questi nuovi standard, è “permessa anche la pubblicazione di fotografie di dipinti, sculture o altre forme d'arte che ritraggono figure nude.” I musei possono tirare finalmente un sospiro di sollievo, insomma.

Un’altra novità importante è la prossima introduzione di una procedura di appello contro le decisioni dei valutatori di Facebook: se un post, una foto o un video viene rimosso perché considerato in violazione degli standard, questa decisione non sarà più definitiva, ma verrà offerta la possibilità di chiedere un riesame più approfondito da parte di un addetto in carne e ossa, in genere entro 24 ore; se il riesame riscontrerà che la rimozione era errata, i contenuti rimossi verranno ripristinati. Questa facoltà di appello varrà non solo per i contenuti rimossi, ma anche per quelli segnalati ma non rimossi.

Riuscirà Facebook a mantenere queste promesse? Lo scopriremo presto. Butac.it segnala che in queste ore sul social network circola un’accusa infamante nei confronti di Nadia Toffa, la conduttrice delle Iene, che (secondo quest’accusa) starebbe addirittura recitando, pagata dalle case farmaceutiche, per sponsorizzare le cure convenzionali contro il cancro. Secondo Facebook, in quale categoria rientra il complottismo che accusa per nome le persone in questo modo?

Nessun commento: