Questo articolo è disponibile in versione audio nel
podcast
Il Disinformatico
del 23 dicembre 2022. Ultimo aggiornamento: 2022/12/23 23:30.
Moltissime persone stanno usando la funzione Magic Avatar dell’app Lensa AI per crearsi dei ritratti personali digitali stilizzati, da usare per esempio come immagini dei profili social ma anche per puro divertimento, e i risultati sono davvero notevoli. Gli incassi della casa produttrice, Prisma Labs, ammontano già a svariati milioni di dollari.
Ma per usare Lensa AI bisogna affidare a quest’azienda una decina di foto del proprio volto, quindi una serie di dati biometrici sensibili. Pertanto sarebbe opportuno leggere l’informativa sulla riservatezza dei dati e le condizioni d’uso per scoprire che fine fanno queste foto: vengono depositate temporaneamente sui server dell’azienda, che si trovano negli Stati Uniti, e cancellate subito dopo la generazione degli avatar corrispondenti. Così dice Andrey Usoltsev, CEO e cofondatore di Prisma Labs.
Il problema è che oltre alle vostre foto, Lensa AI acquisisce molte altre informazioni personali “a scopo di marketing”, come per esempio (sezione 3 delle condizioni d’uso) che tipo di smartphone usate, il vostro indirizzo IP e soprattutto i dati di tracciamento pubblicitario raccolti dai principali operatori del settore, ossia i cosiddetti IDFA di Apple o gli Android Advertising ID di Google, che possono essere poi ceduti o rivenduti ad altre società.
Potete disabilitare questa raccolta di dati andando nelle apposite impostazioni di iOS o di Android e seguendo le istruzioni fornite nell’informativa di Lensa AI.
Ci sono anche alcune precauzioni che riguardano in particolare i bambini e le donne: mandare a Lensa AI immagini di bambini è contrario alle condizioni d’uso e produce risultati che mi limito a definire inquietanti. Per le donne, invece, Lensa AI ha una spiccata tendenza a generare immagini fortemente sessualizzate: l’app spesso genera nudi integrali e pose molto esplicite anche se si mandano solo fotografie del proprio volto.
Stranamente non sembra esserci lo stesso problema per gli uomini: per loro vengono generate solitamente immagini in stile eroico o comunque ritratti normali. Potete farvene un’idea sfogliando i tweet che usano l’hashtag #lensaai.
Ma il problema più grave è che è possibile usare Lensa AI per generare
immagini pornografiche realistiche di altre persone in modo pericolosamente
semplice. Se si appiccica rozzamente, con Photoshop, il volto di una persona
su immagini esplicite di un’altra, Lensa AI fonde perfettamente le due
immagini.
Lensa AI usa una versione del software di intelligenza artificiale Stable Diffusion che è dotata di filtri che in teoria dovrebbero bloccare le immagini non adatte, ma a quanto risulta dai test effettuati dai ricercatori questi filtri vanno in tilt se si usa una serie appositamente confezionata di immagini.
Le immagini pornografiche false di celebrità o di persone comuni, usate spesso come strumenti di aggressione, bullismo o umiliazione, purtroppo non sono una novità, ma generarle prima richiedeva una notevole competenza nell’uso di programmi di fotoritocco e questo ne frenava la produzione e l’abuso. Ora, invece, grazie a Lensa AI questo ostacolo non esiste più: bastano un telefonino e pochi dollari.
Prisma Labs ha dichiarato che sta prendendo delle misure tecniche per risolvere questo problema, ma l’avvento generale di questi software di intelligenza artificiale sta creando un pantano etico che sta già spingendo alcuni governi, come per esempio quello britannico, a valutare leggi che criminalizzino la disseminazione di foto intime generate artificialmente senza consenso.
Nel frattempo è forse il caso di ridurre, se possibile, la quantità di fotografie dei nostri volti che mettiamo a disposizione di chiunque pubblicandole sui social network. L’intelligenza artificiale, purtroppo, non aiuta a contrastare la cattiveria naturale.
Fonte aggiuntiva: TechCrunch.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.