Cerca nel blog

2019/01/11

Tumblr, l'epic fail dell’“intelligenza artificiale” continua e peggiora

Tumblr ha mantenuto la parola e dal 17 dicembre scorso non accetta più contenuti ritenuti “per adulti, compresi i contenuti sessuali espliciti e la nudità (con alcune eccezioni)”, dichiarando di voler diventare così “un Tumblr migliore e più positivo”. Ha iniziato a nascondere i contenuti di questo genere e ha eliminato il pulsante che consente agli utenti di chiedere un riesame della valutazione.

C’è un piccolo problema in questa transizione: per valutare l’enorme massa di contenuti pubblicati dagli utenti, Tumblr ha deciso di utilizzare una sorta di intelligenza artificiale: “Ci affidiamo a strumenti automatizzati per identificare i contenuti per adulti e gli esseri umani per aiutare ad addestrare e tenere sotto controllo i nostri sistemi. Sappiamo che ci saranno errori“, scrive Tumblr. Mai parole finali furono più profetiche.

Gli “strumenti automatizzati” di Tumblr sono diventati la barzelletta di Internet, bloccando di tutto, comprese immagini religiose e persino i post che prendono in giro i suoi errori di riconoscimento in una sorta di Inception ricorsiva, come nota Boingboing (l’errore è stato poi corretto grazie all’intervento manuale di un moderatore):


Forse l’errore più comico è che Tumblr segnala come inaccettabili anche gli esempi di immagini che Tumblr stesso ha creato per mostrare cosa è accettabile e cosa non lo è:




Infatti, puntualmente i prodigiosi “sistemi automatizzati” di Tumblr hanno immediatamente bloccato queste immagini:


Mentre l’ilarità continua, casi come questo possono servire da promemoria ben più serio per tutti quelli che periodicamente partoriscono l‘idea di affidare la sorveglianza dei contenuti e delle persone ai sistemi di riconoscimento automatico. Senza un esercito di esseri umani addestrati a valutare i singoli casi e un modo di contestare gli inevitabili errori, questi sistemi rischiano di essere un autogol formidabile.

Nessun commento: