Sono sempre più numerosi i governi che spingono per l’introduzione del riconoscimento facciale come strumento di sorveglianza e lotta al crimine, ma è importante capire bene la reale affidabilità di questi sistemi, specialmente se non vengono configurati rispettando attentamente le raccomandazioni dei produttori.
Di recente la ACLU, un’associazione statunitense che si batte per la difesa dei diritti civili, ha dato una dimostrazione molto efficace dei limiti di affidabilità del sistema Rekognition di Amazon. Al sistema sono state date in pasto 120 immagini di legislatori californiani, per confrontarle con 25.000 foto segnaletiche di criminali. Rekognition ha trovato 26 corrispondenze. Tutte errate.
I legislatori, che sono chiamati proprio in questo periodo a legiferare sul riconoscimento facciale, ci possono ridere sopra: ma una persona che cerca lavoro e viene erroneamente identificata come un criminale ride molto meno.
Amazon ha contestato i risultati di questa dimostrazione, dicendo che se Rekognition viene usato “usando la soglia raccomandata di certezza del 99% e nell’ambito di una decisione guidata da esseri umani”, funziona adeguatamente. Il test della ACLU, invece, aveva usato una soglia dell’80%. Che però, nota l’associazione, è l’impostazione predefinita del software, ed è comunque piuttosto alta.
Quello che è certo è che senza un’impostazione corretta e scelta caso per caso, il rischio di falsi positivi che possono rovinare una vita è alto. Conviene quindi dare a questi sistemi di riconoscimento facciale una certa tara, altrimenti c’è il rischio che chi li usa li scambi per oracoli infallibili.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.