2024/03/01

Podcast RSI - Le IA danno voce a vittime di stragi e imbarazzano le aziende, Avast spiona

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Joaquin che parla]

Questa è la voce di Joaquin Oliver, un diciassettenne morto in una sparatoria di massa negli Stati Uniti, che racconta al passato i dettagli di come è stato ucciso. Una voce resa possibile dall’intelligenza artificiale nella speranza di muovere i cuori dei politici statunitensi sulla questione annosa del controllo delle armi da guerra.

È una delle storie della puntata del primo marzo 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica: le altre notizie riguardano un software di intelligenza artificiale che ha dato informazioni sbagliate a un cliente di una compagnia aerea canadese, facendogli perdere parecchi soldi, e quando il cliente ha contestato il fatto la compagnia ha risposto che lei non era responsabile delle azioni della sua intelligenza artificiale. Non è andata finire molto bene, soprattutto per il software. E poi c’è la scoperta che Avast, un noto produttore di applicazioni per tutelare la sicurezza informatica e la privacy, ha in realtà venduto a oltre cento aziende i dati degli utenti che diceva di proteggere. Anche in questo caso la storia non è finita bene, ma contiene una lezione interessante.

Benvenuti a questo podcast. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Air Canada e il suo chatbot “responsabile delle proprie azioni”

L’intelligenza artificiale ormai è dappertutto, e quindi qualche caso di applicazione maldestra è normale e inevitabile. Quello che non è normale è l’applicazione arrogante. Questa vicenda arriva dal Canada, dove la compagnia aerea Air Canada ha pensato di adottare l’intelligenza artificiale per rispondere automaticamente alle domande dei clienti sul proprio sito di prenotazioni di voli.

Uno di questi clienti, il signor Moffatt, si è rivolto a questo sistema di risposta automatica tramite chat per chiedere informazioni sulle tariffe speciali riservate ai voli prenotati all’ultimo momento a causa di lutti in famiglia, visto che aveva appena saputo del decesso della nonna.

Il sistema di chat o chatbot gestito dall’intelligenza artificiale gli ha fornito informazioni dettagliate su come procedere alla richiesta di riduzione del prezzo del biglietto, spiegando che questa richiesta andava inviata alla compagnia aerea entro tre mesi dalla data di rilascio del biglietto, compilando l’apposito modulo di rimborso. Istruzioni chiare, semplici e non ambigue. Ma completamente sbagliate.

In realtà il regolamento di Air Canada prevede che le richieste di riduzione debbano essere inviate prima della prenotazione, e quindi quando il signor Moffatt ha poi chiesto il rimborso si è sentito rispondere dal personale della compagnia che non ne aveva diritto, nonostante il chatbot di Air Canada gli avesse detto che lo aveva eccome. La conciliazione amichevole è fallita, e così il cliente fuorviato dall’intelligenza artificiale ha portato la compagnia aerea dal giudice di pace. Ed è qui che è arrivata l’arroganza.

Air Canada, infatti, si è difesa dicendo che il cliente non avrebbe mai dovuto fidarsi del chatbot presente sul sito della compagnia aerea e ha aggiunto che, cito testualmente dagli atti, “il chatbot è un’entità legale separata che è responsabile delle proprie azioni”.

Che un software sia responsabile delle proprie azioni è già piuttosto surreale, ma che la compagnia prenda le distanze da un servizio che lei stessa offre e oltretutto dia la colpa al cliente per essersi fidato del chatbot senza aver controllato le condizioni di rimborso effettive è una vetta di arroganza che probabilmente non ha precedenti nella storia degli inciampi delle intelligenze artificiali, e infatti il giudice di pace ha deciso pienamente in favore del cliente, dicendo che la compagnia è responsabile di tutte le informazioni presenti sul proprio sito: che siano offerte da una pagina statica o da un chatbot non fa alcuna differenza, e i clienti non sono tenuti a sapere che il chatbot potrebbe dare risposte sbagliate.

A quanto risulta il chatbot è stato rimosso dal sito della compagnia, che fra l’altro aveva dichiarato che il costo dell’investimento iniziale nell’intelligenza artificiale per l’assistenza clienti era stato largamente superiore al costo di continuare a pagare dei lavoratori in carne e ossa. La speranza era che l’intelligenza artificiale riducesse i costi e migliorasse l’interazione con i clienti, ma in questo caso è successo l’esatto contrario, con l’aggiunta di una figuraccia pubblica non da poco. Una lezione che potrebbe essere preziosa anche per molte altre aziende che pensano di poter risparmiare semplicemente sostituendo in blocco i lavoratori con un’intelligenza artificiale esposta al pubblico senza adeguata supervisione.

Fonte aggiuntiva: Ars Technica.

Avast ha fatto la spia, dice la FTC

Avast (o a-VAST, secondo la pronuncia inglese corretta, che però in italiano non usa praticamente nessuno) è un nome molto noto nel campo della sicurezza informatica, in particolare per i suoi antivirus. Ma è emerso che mentre diceva pubblicamente di proteggere la privacy dei propri clienti in realtà stava vendendo i loro dati a oltre cento aziende.

Secondo le indagini e la decisione della Federal Trade Commission, l’agenzia federale statunitense di vigilanza sul commercio, fra il 2014 e il 2020, mentre Avast dichiarava pubblicamente che i suoi prodotti avrebbero impedito il tracciamento delle attività online di chi li usava, in realtà collezionava le informazioni di navigazione dei propri utenti e le rivendeva tramite Jumpshot, un’azienda acquisita da Avast che nel proprio materiale pubblicitario rivolto alle aziende si vantava di poter fornire loro una visione privilegiata delle attività di oltre cento milioni di consumatori online in tutto il mondo, compresa la capacità, cito, di “vedere dove vanno i vostri utenti prima e dopo aver visitato il vostro sito o quello dei concorrenti, e persino di tracciare quelli che visitano uno specifico URL”, ossia una specifica pagina di un sito.

Anche se Avast e Jumpshot hanno dichiarato che i dati identificativi dei singoli utenti venivano rimossi dalle loro raccolte di dati, secondo la FTC i dati includevano anche un identificativo unico per ogni singolo browser. La stessa agenzia federale ha documentato che questi dati venivano acquistati da varie aziende, spesso con lo scopo preciso di abbinarli ai dati raccolti in altro modo da quelle aziende, ottenendo così un tracciamento individuale tramite dati incrociati.

Fra i clienti di Jumpshot c’erano pezzi grossi come Google, Microsoft e Pepsi, e le indagini giornalistiche hanno rivelato che i clienti potevano acquistare dati che includevano le consultazioni di Google Maps, le singole pagine LinkedIn e YouTube, i siti pornografici visitati e altro ancora. La FTC ha appurato che fra i miliardi di dati raccolti da Avast c’erano orientamenti politici, informazioni di salute e finanziarie, link a siti di incontri (compreso un identificativo unico per ogni membro) e informazioni sull’erotismo in cosplay.

La FTC ha ordinato ad Avast di pagare 16 milioni e mezzo di dollari, da usare per risarcire i consumatori, e le ha imposto il divieto di vendere dati di navigazione futuri e altre restrizioni. Nel frattempo, però, l’azienda ha chiuso Jumpshot nel 2020 ed è stata acquisita da Gen Digital, che possiede anche Norton, Lifelock, Avira, AVG e molte altre aziende del settore della sicurezza informatica.

Gli antivirus e i prodotti per la protezione della navigazione online sono fra i più delicati e importanti per un utente, perché per loro natura vedono tutto il traffico di chi li usa, e quindi l’utente compie un gesto importante di fiducia nei confronti di chi fa questi prodotti. Scoprire che uno di questi produttori non solo non proteggeva dalla sorveglianza pubblicitaria ma addirittura la facilitava e ci guadagnava è un tradimento del patto sociale fra produttori di software per la sicurezza e privacy da un lato e gli utenti dall’altro: io ti lascio vedere tutto quello che faccio, ma tu mi devi proteggere da chi vuole spiarmi e non devi essere tu il primo fare la spia. Anche perché una volta raccolti e rivenduti, i dati personali non si possono revocare e non c’è risarcimento che tenga.

Per Avast questa decisione della FTC è un danno reputazionale non da poco, perché quando un’azienda in una posizione così delicata tradisce la fiducia degli utenti e se la cava con una sanzione tutto sommato leggera per un budget da multinazionale, è inevitabile pensare che se lo ha fatto una volta potrebbe rifarlo. Se usate Avast come antivirus o come prodotto per la protezione della vostra sicurezza informatica o privacy, potrebbe valere la pena di esplorare qualche alternativa.

Fonte aggiuntiva: Ars Technica.

Le voci dei morti nelle sparatorie telefonano ai politici americani

Questa non è una storia facile da raccontare, perché parla delle persone uccise nelle sparatorie di massa tragicamente frequenti negli Stati Uniti. Questa è la voce di Joaquin Oliver, una di queste persone.

[CLIP: voce di Joaquin]

Joaquin spiega che sei anni fa frequentava la scuola di Parkland, in Florida, dove il giorno di San Valentino del 2018 morirono molti studenti e docenti, uccisi da una persona che usava un’arma da guerra. Lui fu una delle vittime, eppure la sua voce racconta i fatti al passato.

La sua voce è infatti sintetica: la sua parlata, la sua intonazione, il suo timbro di giovane studente diciassettenne sono stati ricreati con l’intelligenza artificiale di Elevenlabs partendo dai campioni della sua voce reale pubblicati sui social network e registrati nei suoi video, e così ora Joaquin, ucciso da un’arma da fuoco, è una delle tante voci ricreate con questa tecnica dopo stragi di questo genere che telefonano ai politici chiedendo loro di risolvere il problema delle stragi armate negli Stati Uniti.

L’idea di far chiamare i decisori politici dalle voci delle persone uccise è dei genitori di Joaquin, Manuel e Patricia, che hanno lanciato pochi giorni fa il progetto The Shotline: un sito, Theshotline.org, che ospita le voci ricreate delle persone morte nelle sparatorie di massa e permette ai visitatori di inviare al loro rappresentante politico locale, scelto indicando il numero di avviamento postale, una telefonata automatica, in cui una di queste voci chiede leggi più restrittive sulle armi. Finora le telefonate fatte da Theshotline.org sono oltre ottomila.

I familiari delle vittime possono compilare un modulo per inviare le voci di chi è stato ucciso dalle armi a The Shotline, in modo che possano aggiungersi a quelle esistenti.

Ricevere una telefonata da una persona morta, che ti racconta con la propria voce come è morta e dice che bisogna trovare modi per impedire le stragi commesse usando armi da guerra, è forse un approccio macabro e strano a questo dramma incessante, ma come dicono i genitori di Joaquin, se è necessario essere inquietanti per risolverlo, allora ben venga l’inquietante.

Nessun commento:

Posta un commento

Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.

Pagine per dispositivi mobili