Cerca nel blog

2024/04/29

RSI - Niente Panico 2024/04/29

È a vostra disposizione la puntata di questa settimana di Niente Panico, il programma radiofonico che conduco insieme a Rosy Nervi ogni lunedì mattina alle 11, in diretta alla RSI, in aggiunta al consueto podcast del Disinformatico: streaming (si apre in una finestra separata) e download. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica:

  • Antibufala: la pioggia a Dubai non è colpa del “cloud seeding” o delle “scie chimiche” (Butac.it)
  • Perché si dice “bufala”
  • Donne dimenticate dalla scienza: Marthe Gautier
  • Il video virale (falso) secondo il quale il governo francese vorrebbe accelerare i parti delle donne francesi in modo da liberare gli ospedali per le Olimpiadi (NewsGuard, paywall)
  • Truffe telefoniche a nome della polizia
  • Ricadute di frammenti spaziali: 1973, precipita sulla terra la Salyut 2
  • Casi reali di persone colpite da meteoriti e come riconoscere un meteorite
  • Interviste improbabili con Character.ai: Rudolf Nureyev

2024/04/26

L’intelligenza artificiale e la fiducia, di Bruce Schneier

Ultimo aggiornamento: 2024/04/30 20:15. 

Questa è la mia traduzione integrale del saggio AI and Trust di Bruce Schneier, realizzata e pubblicata con il suo permesso. Una sintesi è pubblicata nel mio podcast. È disponibile anche una traduzione in tedesco, pubblicata da Netzpolitik.org.

L’intelligenza artificiale e la fiducia, di Bruce Schneier

Oggi mi sono fidato molto. Mi sono fidato che il mio telefono mi avrebbe svegliato in tempo. Mi sono fidato che Uber avrebbe predisposto un taxi per me e che il tassista mi avrebbe portato sano e salvo in aeroporto. Mi sono fidato che migliaia di altri conducenti per strada non avrebbero tamponato la mia auto. All’aeroporto mi sono fidato dei controllori al check-in, dei tecnici addetti alla manutenzione, di tutte le altre persone che mantengono operativa una compagnia aerea, del pilota dell’aereo sul quale ho volato, e di migliaia di altre persone in aeroporto e sull’aereo, ciascuna delle quali avrebbe potuto aggredirmi. E mi sono fidato di tutte le persone che mi hanno preparato e servito la colazione, e dell’intera filiera alimentare: qualunque anello di questa catena avrebbe potuto avvelenarmi. Quando sono atterrato qui, mi sono fidato di altre migliaia di persone: in aeroporto, sulla strada, in questo edificio, in questa sala. E tutto questo è avvenuto prima delle 10.30 di stamattina.

La fiducia è essenziale per la società. Gli esseri umani, come specie, tendono a fidarsi gli uni degli altri. Siamo tutti seduti qui, e per la maggior parte non ci conosciamo fra noi, e siamo fiduciosi del fatto che nessuno ci aggredirà. Se questa fosse una sala piena di scimpanzé, questo sarebbe impossibile. Noi ci fidiamo migliaia di volte al giorno. La società non potrebbe funzionare senza la fiducia. E il fatto che non ci facciamo neanche caso è una misura di quanto funzioni bene tutto questo.

In questo mio intervento proporrò numerose argomentazioni. La prima è che esistono due tipi differenti di fiducia, quella interpersonale e quella sociale, e che li confondiamo continuamente. La seconda è che questa confusione aumenterà con l’intelligenza artificiale: commetteremo un errore di categorizzazione fondamentale e penseremo alle intelligenze artificiali come amiche quando sono in realtà solo servizi. La terza è che le aziende che controllano i sistemi di intelligenza artificiale si approfitteranno della nostra confusione per sfruttarci e non saranno degne di fiducia. La quarta è che è compito del governo creare la fiducia nella società e quindi creare un ambiente che consenta una IA degna di fiducia. Questo comporta della regolamentazione: non dell’IA, ma delle organizzazioni che controllano e utilizzano l’IA.

Bene, facciamo un passo indietro e consideriamo tutte queste cose molto più lentamente. La fiducia è un concetto complicato e questa parola è sovraccarica di tanti significati. C’è la fiducia personale e intima. Quando diciamo che ci fidiamo di un amico o di un’amica, è più per com’è quella persona che per le cose specifiche che fa. Confidiamo che si comporterà in maniera degna di fiducia, ci fidiamo delle sue intenzioni e sappiamo che quelle intenzioni ispireranno le sue azioni. Questa possiamo chiamarla “fiducia interpersonale”.

Esiste anche la fiducia meno intima, meno personale. Magari non conosciamo qualcuno di persona oppure non ne conosciamo le motivazioni, ma possiamo fidarci del suo comportamento. Non sappiamo se qualcuno vuole derubarci oppure no, ma forse possiamo fidarci che non lo faranno. È più una questione di affidabilità e prevedibilità. Questa possiamo chiamarla “fiducia sociale”: la capacità di fidarsi degli sconosciuti.

La fiducia interpersonale e quella sociale sono entrambe essenziali nella società attuale. Funziona così: abbiamo meccanismi che inducono le persone a comportarsi in maniera degna di fiducia, sia a livello interpersonale, sia a livello sociale. Questo, a sua volta, permette agli altri di avere e dare fiducia, e questo rende possibile la fiducia nella società, e tutto questo permette alla società di continuare a funzionare. Il sistema non è perfetto: ci saranno sempre persone che abusano della nostra fiducia, ma il fatto che la maggior parte di noi sia degna di fiducia per la maggior parte del tempo è sufficiente.

Ho parlato di questi concetti nel 2012, in un libro intitolato Liars and Outliers, descrivendo quattro sistemi che rendono possibile la fiducia: i nostri valori morali innati, la preoccupazione per le nostre reputazioni, le leggi alle quali siamo soggetti e le tecnologie di sicurezza che vincolano il nostro comportamento. Ho scritto che le prime due sono più informali delle due successive, e che queste due successive sono più scalabili, consentono società più grandi e più complesse e rendono possibile la cooperazione tra sconosciuti.

Quello che non avevo considerato è quanto siano differenti le prime due dalle seconde. I valori morali e la reputazione valgono tra una persona e un’altra, sulla base dei rapporti umani, della reciproca vulnerabilità, sul rispetto, l’integrità, la generosità e molte altre cose, che sono i fondamenti della fiducia interpersonale. Le leggi e le tecnologie di sicurezza sono sistemi di fiducia che ci obbligano a comportarci in modo degno di fiducia, e costituiscono la base della fiducia sociale.

Fare il tassista una volta era uno dei mestieri più pericolosi in questo paese. Uber ha cambiato tutto. Non conosco il mio conducente Uber, ma le regole e la tecnologia danno a me e a lui la fiducia che nessuno di noi cercherà di truffare o attaccare l’altro. Siamo entrambi sotto continua sorveglianza e siamo in competizione per avere punteggi elevati.

Molta gente scrive a proposito della differenza tra vivere in una società che ha un livello di fiducia elevato e vivere in una che ha un livello basso, dicendo che l’affidabilità e la prevedibilità rendono tutto più semplice, e notando cosa si perde quando la società non ha queste caratteristiche. Si parla anche di come le società passano da livelli alti di fiducia a livelli bassi, e viceversa. Tutto questo si basa sulla fiducia sociale.

Questa letteratura è importante, ma per questo mio discorso il punto centrale è che la fiducia sociale è maggiormente scalabile [nel senso di “usabile su scala più ampia”, N.d.T.]. Un tempo serviva avere un rapporto personale con un funzionario di banca per ottenere un prestito. Oggi tutto questo si fa algoritmicamente e ci sono molte più opzioni tra cui scegliere.

La fiducia sociale è maggiormente scalabile ma incorpora ogni sorta di pregiudizio e preconcetto, perché per poter essere scalabile deve essere strutturata, orientata ai sistemi e alle regole, ed è a questo punto che vengono incorporati i pregiudizi. Inoltre il sistema deve essere reso quasi completamente insensibile al contesto, e questo gli toglie flessibilità.

Ma questa scala è fondamentale. Nella società attuale diamo regolarmente fiducia a governi, aziende, organizzazioni o gruppi, oppure ne diffidiamo. Non è che mi sono fidato dello specifico pilota che ha fatto volare il mio aereo; mi sono fidato della compagnia aerea, che mette in cabina di pilotaggio piloti ben addestrati e ben riposati. Non mi fido dei cuochi o camerieri al ristorante, ma semmai del sistema di norme sanitarie al quale sono soggetti. Non sono nemmeno in grado di descrivere il sistema bancario di cui mi sono fidato quando ho usato un Bancomat stamattina. Ancora una volta, questa fiducia non è altro che affidabilità e prevedibilità.

Pensate di nuovo a quel ristorante. Immaginate che sia un fast food che dà lavoro a dei teenager. Il cibo è quasi certamente sicuro – probabilmente più sicuro che in molti ristoranti di alto livello – a causa dei sistemi aziendali o dell’affidabilità e prevedibilità che guida ogni loro comportamento.

È qui che sta la differenza. Potete chiedere a un amico di consegnare un pacchetto dall’altra parte della città, oppure potete chiedere alle Poste di fare la stessa cosa. Nel primo caso si tratta di fiducia interpersonale, basata sulla moralità e sulla reputazione. Conoscete il vostro amico e sapete quanto è affidabile. Nel secondo abbiamo un servizio, reso possibile dalla fiducia sociale. E nella misura in cui è un servizio affidabile e prevedibile, si basa principalmente su leggi e tecnologie. Entrambi i metodi possono consegnare il vostro pacchetto, ma solo il secondo può diventare il sistema di corrieri di portata mondiale che è FedEx.

A causa dell’ampiezza e della complessità della società, abbiamo sostituito molti dei rituali e dei comportamenti tipici della fiducia interpersonale con meccanismi di sicurezza che garantiscono affidabilità e prevedibilità: la fiducia sociale.

Ma poiché usiamo lo stesso termine “fiducia” per entrambi i tipi, li confondiamo regolarmente. E quando lo facciamo, commettiamo un errore di categorizzazione.

Lo facciamo continuamente: con i governi, con le organizzazioni, con i sistemi di tutti i tipi, e soprattutto con le aziende.

Possiamo pensare a loro come amiche, quando in realtà sono servizi. Le aziende non sono morali; sono immorali, nella misura in cui la legge e la loro reputazione gliela fanno passare liscia.

Di conseguenza, le aziende si approfittano regolarmente dei loro clienti, maltrattano i loro lavoratori, inquinano l’ambiente e fanno pressioni per modificare le leggi in modo da poter fare queste cose ancora di più.

Sia il linguaggio che le leggi rendono facile commettere questo errore di categorizzazione. Usiamo la stessa grammatica per le persone e le aziende. Immaginiamo di avere rapporti personali con i marchi. Diamo alle aziende alcuni degli stessi diritti che diamo alle persone.

Alle aziende piace che commettiamo questo errore di categoria—noterete che l’ho appena fatto anch’io [attribuendo un sentimento a un’azienda, N.d.T.]—perché traggono profitto quando pensiamo a loro come amiche. Utilizzano mascotte e testimonial. Hanno account sui social media, e questi account hanno una propria personalità. Si riferiscono a loro stesse come se fossero persone.

Ma non sono nostre amiche: le aziende non sono in grado di avere questo tipo di relazione.

Stiamo per commettere lo stesso errore di categorizzazione con le intelligenze artificiali: le considereremo nostre amiche quando non lo sono.

È stato scritto molto a proposito delle intelligenze artificiali come rischio esistenziale: si teme che avranno un obiettivo e che si impegneranno per raggiungerlo anche se questo dovesse comportare danni per gli esseri umani. Avete forse letto del “massimizzatore di fermagli[o paperclip maximizer, ne ho parlato in questo articolo, N.d.T.]: una IA che è stata programmata per fabbricare il maggior numero possibile di fermagli e finisce per distruggere la Terra per raggiungere il proprio obiettivo. È una paura strana. Ne scrive l’autore di fantascienza Ted Chiang. Invece di risolvere tutti i problemi dell’umanità, o vagare dimostrando teoremi matematici che non capisce nessuno, l’IA persegue in modo monomaniacale l’obiettivo di massimizzare la produzione. Chiang intende dire che questo è il business plan di qualunque azienda, e che le nostre paure verso l’IA sono in sostanza paure del capitalismo. L’autore di fantascienza Charlie Stross si spinge un passo più in là e chiama le aziende “IA lenta.” SOno macchine per la massimizzazione del profitto, e quelle di maggior successo fanno tutto quello che possono per conseguire quell’unico obiettivo.

E le intelligenze artificiali del prossimo futuro saranno controllate dalle aziende, che le useranno per raggiungere quell’obiettivo di massimizzare il profitto. Non saranno nostre amiche: nel caso migliore saranno servizi utili. Più probabilmente, ci spieranno e cercheranno di manipolarci.

Questa non è una novità. La sorveglianza e la manipolazione sono il modello di business di Internet.

I risultati delle vostre ricerche in Google sono preceduti da URL che qualcuno ha pagato per mostrarvi. I vostri feed di Facebook e Instagram sono pieni di post sponsorizzati. Le ricerche su Amazon restituiscono pagine di prodotti i cui venditori hanno pagato per essere piazzati in quelle pagine.

Questo è il modo in cui funziona Internet. Le aziende ci spiano mentre utilizziamo i loro prodotti e servizi. I broker di dati acquistano i dati di sorveglianza dalle aziende più piccole e creano dossier dettagliati su di noi. Poi rivendono queste informazioni a queste e altre aziende, che le combinano con i dati raccolti da loro per manipolare il nostro comportamento, al servizio dei loro interessi e a spese dei nostri interessi.

Utilizziamo tutti questi servizi come se fossero nostri agenti, che lavorano per noi. In realtà, sono agenti doppiogiochisti, che lavorano segretamente anche per i loro proprietari aziendali. Ci fidiamo di loro, ma non sono degni di fiducia. Non sono amici, sono servizi.

Non sarà diverso con l’intelligenza artificiale, e il risultato, sarà molto peggiore, per due motivi.

Il primo motivo è che questi sistemi di intelligenza artificiale saranno più relazionali. Converseremo con loro, utilizzando il linguaggio naturale. E così attribuiremo loro spontaneamente delle caratteristiche simili a quelle umane.

Questa natura relazionale renderà più facile il lavoro di questi doppiogiochisti. Il vostro chatbot vi ha consigliato una particolare compagnia aerea o un hotel perché è davvero l'offerta migliore, in base alle vostre particolari esigenze, o perché l'azienda di intelligenza artificiale ha ricevuto una tangente da quei fornitori? Quando gli avete chiesto di spiegare una questione politica, ha orientato la sua spiegazione verso la posizione dell'azienda, o del partito politico che le ha dato più soldi? L'interfaccia conversazionale aiuterà a nascondere le loro intenzioni.

Il secondo motivo di preoccupazione è che queste intelligenze artificiali saranno più intime. Una delle promesse dell'intelligenza artificiale generativa è un assistente digitale personale, che agisce come vostro rappresentante verso gli altri e come maggiordomo con voi. Questo richiede un'intimità maggiore rispetto a un motore di ricerca, a un provider di e-mail, a un sistema di archiviazione cloud o a un telefono. Desidererete che questo assistente sia con voi 24 ore su 24, 7 giorni su 7, e che si istruisca costantemente su tutto ciò che fate. Sarete voi a volere che sappia tutto di voi, in modo da poter lavorare nel modo più efficace per vostro conto.

E questo assistente vi aiuterà in molti modi. Noterà i vostri stati d'animo e saprà cosa suggerirvi, anticiperà le vostre esigenze e lavorerà per soddisfarle. Sarà il vostro terapeuta, life coach e consulente relazionale.

Vi verrà spontaneo considerarlo un amico: vi rivolgerete a lui in linguaggio naturale, e lui farà lo stesso con voi. Se è un robot, avrà un aspetto umanoide o almeno simile a un animale. Interagirà con tutta la vostra esistenza, proprio come farebbe un’altra persona.

Il suo uso del linguaggio naturale è decisivo, in questo caso, perché siamo portati automaticamente a pensare agli altri che parlano la nostra lingua come persone, mentre a volte abbiamo problemi a trattare come persone chi parla una lingua diversa dalla nostra. Commettiamo questo errore di categorizzazione con le entità che chiaramente non sono persone, come i personaggi dei cartoni animati. Naturalmente avremo una “teoria della mente” a proposito di qualunque IA con la quale parliamo.

Più specificamente, noi tendiamo a presumere che l’implementazione di una cosa coincida con la sua interfaccia: in altre parole, presumiamo che l’aspetto di superficie rispecchi il contenuto interiore. Gli esseri umani sono fatti così: siamo persone in tutto e per tutto. Un governo è interiormente sistemico e burocratico: quando vi interagite, non lo scambierete per una persona. Ma questo è l’errore di categorizzazione che commettiamo con le aziende. A volte scambiamo l’azienda per il suo portavoce. L’IA ha un’interfaccia pienamente relazionale, perché parla come una persona, eppure ha un’implementazione pienamente sistemica. Come un’azienda, ma molto di più. L’implementazione e l’interfaccia sono di gran lunga più divergenti che in qualunque altra cosa abbiamo mai incontrato. 

E vorrete fidarvi di questo assistente, che userà i vostri stessi modi di fare e riferimenti culturali, avrà una voce convincente, un tono sicuro e un modo di fare autorevole. La sua personalità sarà ottimizzata esattamente su ciò che vi piace e a cui reagite.

Si comporterà in modo affidabile, ma non sarà affidabile. Non sapremo come è stata addestrata, quali sono le sue istruzioni segrete o i suoi pregiudizi, accidentali o intenzionali.

Sappiamo però che queste intelligenze artificiali vengono create con costi enormi, per lo più in segreto, da aziende che massimizzano il profitto per il proprio beneficio.

Non è un caso che queste intelligenze artificiali aziendali abbiano un’interfaccia simile a quella umana. Non è inevitabile: è una scelta progettuale. Le si potrebbe progettare per essere meno personali, meno simili all’essere umano, più dichiaratamente dei servizi, come i motori di ricerca. Le aziende che stanno dietro queste intelligenze artificiali vogliono che commettiate l’errore di categorizzazione amico/servizio. Sfrutteranno il fatto che le scambiate per amiche, e potreste non avere altra scelta che usarle.

C’è una cosa che non abbiamo discusso quando si tratta di fiducia: il potere. A volte non abbiamo altra scelta che fidarci di qualcuno o qualcosa perché è potente. Siamo costretti a fidarci della polizia locale, perché è l’unica autorità di polizia in città. Siamo costretti a fidarci di alcune aziende, perché non ci sono alternative valide. Per essere più precisi, non abbiamo scelta se non affidarci a loro. Ci troveremo nella stessa posizione con le intelligenze artificiali: non avremo altra scelta che affidarci ai loro processi decisionali.

La confusione amico/servizio ci aiuterà a mascherare questa disparità di potere. Dimenticheremo quanto sia potente l’azienda che sta dietro l’intelligenza artificiale, perché ci fisseremo sulla “persona” che pensiamo che l’intelligenza artificiale sia.

Fin qui abbiamo parlato di un particolare tipo di fallimento che deriva dalla fiducia eccessiva nell’IA. Possiamo chiamarla per esempio “sfruttamento occulto”, e ce ne sono altri. C'è la frode vera e propria, in cui l’intelligenza artificiale sta effettivamente cercando di rubarvi qualcosa. C'è il più prosaico errore di competenza, in cui pensate che questa intelligenza artificiale sia più esperta di quanto non sia realmente, perché si comporta ostentando sicurezza. C'è l'incompetenza, quando si crede che l’intelligenza artificiale sia in grado di fare qualcosa che non è in grado di fare. C'è l'incoerenza, quando ci si aspetta erroneamente che una intelligenza artificiale sia in grado di ripetere i propri comportamenti. E c'è l'illegalità, quando si confida, erroneamente anche qui, che l'intelligenza artificiale rispetti la legge. Probabilmente ci sono anche altri modi in cui fidarsi di una IA può portare al fallimento.

Tutto questo è un modo prolisso di dire che abbiamo bisogno di un'intelligenza artificiale affidabile, di cui si conoscano il comportamento, i limiti e l’addestramento [training in senso tecnico, N.d.T.], i cui pregiudizi siano compresi e vengano corretti, di cui si capiscano gli obiettivi e che non tradirà segretamente la vostra fiducia a favore di qualcun altro.

Il mercato non fornirà spontaneamente queste cose, perché le aziende massimizzano i profitti, a spese della società. E gli incentivi del capitalismo di sorveglianza sono troppo forti per resistere.

Sono invece i governi a fornire i meccanismi di base per la fiducia sociale, che è essenziale per la società. Pensiamo al diritto contrattuale, alle leggi sulla proprietà, alle leggi che proteggono la vostra sicurezza personale e a tutte le norme di salute e sicurezza che vi permettono di salire su un aereo, mangiare al ristorante o acquistare un farmaco senza preoccupazioni.

Più puoi fidarti che le tue interazioni sociali siano affidabili e prevedibili, più puoi ignorarne i dettagli. I paesi nei quali i governi non forniscono queste cose non sono bei posti dove vivere.

I governi possono fare tutto questo per l’intelligenza artificiale. Abbiamo bisogno di leggi sulla trasparenza dell'intelligenza artificiale: quando viene utilizzata, come viene addestrata, quali pregiudizi e tendenze ha. Ci servono leggi che regolino la sicurezza dell'intelligenza artificiale e della robotica e dicano quando è permesso che l’intelligenza artificiale abbia un impatto sul mondo. Abbiamo bisogno di leggi che impongano l'affidabilità dell'intelligenza artificiale, il che significa la capacità di riconoscere quando queste leggi vengono infrante. E servono sanzioni sufficientemente elevate da incentivare un comportamento affidabile.

Molti Paesi stanno valutando leggi sulla sicurezza delle intelligenze artificiali – l'Unione Europea è la più avanti – ma stanno commettendo un errore cruciale: cercano di regolamentare le intelligenze artificiali e non gli esseri umani che vi stanno dietro.

Le intelligenze artificiali non sono persone: non hanno agentività [nella teoria sociocognitiva, la facoltà di far accadere le cose, di intervenire sulla realtà, di esercitare un potere causale, N.d.T.]. Sono costruite, addestrate e controllate da persone. Principalmente da aziende a scopo di lucro. Qualunque regolamentazione dell’IA deve imporre restrizioni a queste persone e queste aziende, altrimenti le norme commettono lo stesso errore di categorizzazione di cui stavo parlando. In ultima analisi, c’è sempre un essere umano responsabile di qualunque comportamento dell’IA. Ed è quell’essere umano che deve essere responsabile di quello che fa e di quello che fanno le sue aziende, a prescindere dal fatto che sia colpa degli esseri umani, dell’IA, o di una combinazione di entrambi. Forse questo non sarà vero per sempre, ma lo sarà nell’immediato futuro. Se vogliamo un'intelligenza artificiale affidabile, dobbiamo richiedere controllori dell'intelligenza artificiale affidabili.

Abbiamo già un sistema per queste cose: i fiduciari. Ci sono settori della società nei quali l’affidabilità è di importanza vitale, ancora più del solito. Medici, avvocati, commercialisti... sono tutti agenti di fiducia. Hanno bisogno di un accesso straordinario alle nostre informazioni e a noi stessi per svolgere il loro lavoro, e quindi hanno ulteriori responsabilità legali per agire nel nostro migliore interesse. Hanno una responsabilità fiduciaria nei confronti dei loro clienti.

Abbiamo bisogno della stessa cosa per i nostri dati. L'idea di un fiduciario dei dati non è nuova, ma è ancora più vitale in un mondo di assistenti di intelligenza artificiale generativi.

E ci serve un’ultima cosa: dei modelli di intelligenza artificiale pubblici. Sistemi costruiti dal mondo accademico, da gruppi non profit o dal governo stesso, che possono essere posseduti e gestiti dai singoli individui.

Il termine “modello pubblico” è stato usato ampiamente nel mondo dell’IA, per cui vale la pena di spiegare in dettaglio cosa significa. Non si tratta di un modello di intelligenza artificiale aziendale che il pubblico è libero di utilizzare. Non è un modello di intelligenza artificiale aziendale che il governo ha concesso in licenza. Non è nemmeno un modello open source che il pubblico è libero di esaminare e modificare.

Un modello pubblico è un modello costruito dal pubblico per il pubblico. Richiede una responsabilità politica, non solo una responsabilità di mercato [nel senso di “accountability”, ossia l’obbligo di rendere conto del proprio operato, N.d.T.].

Ciò significa apertura e trasparenza, abbinate alla capacità di rispondere alle richieste del pubblico. Dovrebbe anche essere disponibile, quest’intelligenza artificiale, a chiunque per costruirci sopra. Ciò significa accesso universale, e costituisce una base per un libero mercato delle innovazioni nell’intelligenza artificiale. Tutto questo sarebbe un contrappeso all'intelligenza artificiale di proprietà delle aziende.

Non potremo mai trasformare le intelligenze artificiali in nostri amici, ma possiamo trasformarle in servizi degni di fiducia e non doppiogiochisti. Però possiamo farlo solo se il governo lo impone. Possiamo mettere dei limiti al capitalismo della sorveglianza, ma solo se il governo lo impone.

Perché lo scopo del governo è creare fiducia sociale. Ho iniziato questo mio intervento spiegando l’importanza della fiducia nella società e il fatto che la fiducia interpersonale non è scalabile su gruppi più grandi. Quello che creano i governi è l’altro tipo di fiducia: la fiducia sociale, l’affidabilità e la prevedibilità.

Nella misura in cui un governo migliora la fiducia generale nella società, ha successo. E nella misura in cui non lo fa, fallisce. 

Ma deve farlo. Abbiamo bisogno che il governo limiti il comportamento delle aziende e delle intelligenze artificiali che le aziende costruiscono, distribuiscono e controllano. Il governo deve imporre sia prevedibilità che affidabilità.

È così che possiamo creare la fiducia sociale di cui la società ha bisogno per prosperare.

Podcast RSI - Perché l’intelligenza artificiale ci seduce? Lo spiega l’esperto mondiale Bruce Schneier

logo del Disinformatico

Ultimo aggiornamento: 2024/04/28 22:20.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

[CLIP: Discussione finale fra HAL e David Bowman da “2001 Odissea nello spazio” (1968)]

È facile considerare l’intelligenza artificiale come nient’altro che l’ennesima novità tecnologica, uno strumento informatico in più, un ausilio al quale ci abitueremo presto. Nessuno si è agitato o ha proclamato la catastrofe sociale per l’introduzione del controllo ortografico o del riconoscimento vocale. Quindi perché così tanto clamore, e in alcuni casi panico, proprio intorno all’intelligenza artificiale?

L'esperto di sicurezza informatica Bruce Schneier, autore di numerosi libri sulle tematiche digitali e membro del direttivo della Electronic Frontier Foundation, una delle associazioni di punta nella tutela dei diritti digitali, ha pubblicato un saggio, intitolato AI and Trust, nel quale spiega molto bene questa anomalia partendo da un concetto sociale, non tecnologico: la fiducia. E spiega perché noi, come esseri umani, siamo particolarmente vulnerabili alla natura seducente dell’intelligenza artificiale.

Le sue parole sono al centro della puntata del 26 aprile 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Benvenuti. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Premessa: due tipi di fiducia da distinguere

“La fiducia”, dice Bruce Schneier, “è essenziale per la società. Gli esseri umani, come specie, tendono a fidarsi gli uni degli altri.” Prendiamo un mezzo pubblico o camminiamo per strada dando per scontato di poterci fidare del conducente di quel veicolo e del fatto che non verremo aggrediti dai passanti. La fiducia è l’impostazione di default della società, per così dire.

E ci sono due tipi di fiducia: quella interpersonale, basata sulla conoscenza diretta di una persona, e quella sociale, basata sui meccanismi e sulle regole condivise che inducono le persone a comportarsi mediamente in modo affidabile. “Il sistema non è perfetto”, nota ovviamente Schneier: “ci saranno sempre persone che abusano della nostra fiducia, ma il fatto che la maggior parte di noi sia affidabile per la maggior parte del tempo è sufficiente. [...] Le leggi e le tecnologie di sicurezza sono sistemi di fiducia che ci obbligano a comportarci in modo affidabile”, consentendo società più grandi e complesse e permettendo la cooperazione tra sconosciuti.

Da qui in poi vi riporto in sintesi le parole chiarissime di Bruce Schneier, tradotte con il suo permesso. La traduzione integrale del suo saggio è disponibile presso Disinformatico.info.

A causa dell’ampiezza e della complessità della società, abbiamo sostituito molti dei rituali e dei comportamenti tipici della fiducia interpersonale con meccanismi di sicurezza che garantiscono affidabilità e prevedibilità, ossia la fiducia sociale. Ma poiché usiamo lo stesso termine “fiducia” per entrambi [i tipi], li confondiamo regolarmente. E quando lo facciamo, commettiamo un errore di categorizzazione. Lo facciamo continuamente: con i governi, con le organizzazioni, con i sistemi di tutti i tipi, e soprattutto con le aziende. Possiamo pensare a loro come amiche, quando in realtà sono servizi. Le aziende non sono morali; sono immorali, nella misura in cui la legge e la loro reputazione gliela fanno passare liscia.

Di conseguenza, le aziende si approfittano regolarmente dei loro clienti, maltrattano i loro lavoratori, inquinano l’ambiente e fanno pressioni per modificare le leggi in modo da poter fare queste cose ancora di più.

Sia il linguaggio che le leggi, dice Schneier, rendono facile commettere questo errore di categorizzazione. Usiamo la stessa grammatica per le persone e le aziende. Immaginiamo di avere rapporti personali con i marchi. Diamo alle aziende alcuni degli stessi diritti che diamo alle persone.

Alle aziende piace che commettiamo questo errore di categoria (lo commette anche Schneier, scherzosamente, usando questo concetto di piacere). Piace perché traggono profitto quando pensiamo a loro come amiche. Utilizzano mascotte e testimonial. Hanno account sui social media, e questi account hanno una propria personalità. Si riferiscono a loro stesse come se fossero persone. Ma non sono nostre amiche: le aziende non sono in grado di avere questo tipo di relazione.

Stiamo per commettere lo stesso errore di categorizzazione con le intelligenze artificiali: le considereremo nostre amiche quando non lo sono.

La seduzione dell’IA, spiegata

A questo punto del suo saggio, Bruce Schneier nota che le intelligenze artificiali del prossimo futuro saranno controllate dalle aziende, che le useranno per raggiungere l'obiettivo di massimizzare il profitto. Non saranno nostre amiche: nel caso migliore saranno servizi utili. Più probabilmente, ci spieranno e cercheranno di manipolarci.

Questa non è una novità. La sorveglianza e la manipolazione sono il modello di business di Internet. I risultati delle vostre ricerche in Google sono preceduti da link che qualcuno ha pagato per mostrare. I vostri feed di Facebook e Instagram sono pieni di post sponsorizzati. Le ricerche su Amazon restituiscono pagine di prodotti i cui venditori hanno pagato per essere piazzati in quelle pagine.

Questo è il modo in cui funziona Internet. Le aziende ci spiano mentre utilizziamo i loro prodotti e servizi. I broker di dati acquistano i dati di sorveglianza dalle aziende più piccole e creano dossier dettagliati su di noi. Poi rivendono queste informazioni a queste e altre aziende, che le combinano con i dati raccolti da loro per manipolare il nostro comportamento, al servizio dei loro interessi e a spese dei nostri interessi.

Utilizziamo tutti questi servizi come se fossero nostri agenti, che lavorano per noi. In realtà, sono agenti doppiogiochisti, che lavorano segretamente anche per i loro proprietari aziendali. Ci fidiamo di loro, ma non sono degni di fiducia. Non sono amici, sono servizi.

Non sarà diverso con l’intelligenza artificiale, e il risultato, secondo Bruce Schneier, sarà molto peggiore, per due motivi.

Il primo motivo è che questi sistemi di intelligenza artificiale saranno più relazionali. Converseremo con loro, utilizzando il linguaggio naturale. E così attribuiremo loro spontaneamente delle caratteristiche simili a quelle umane.

Questa natura relazionale renderà più facile il lavoro di questi doppiogiochisti. Il vostro chatbot vi ha consigliato una particolare compagnia aerea o un hotel perché è davvero l'offerta migliore, in base alle vostre particolari esigenze, o perché l'azienda di intelligenza artificiale ha ricevuto una tangente da quei fornitori? Quando gli avete chiesto di spiegare una questione politica, ha orientato la sua spiegazione verso la posizione dell'azienda, o del partito politico che le ha dato più soldi? L'interfaccia conversazionale aiuterà a nascondere le loro intenzioni.

Il secondo motivo di preoccupazione è che queste intelligenze artificiali saranno più intime. Una delle promesse dell'intelligenza artificiale generativa è un assistente digitale personale, che agisce come vostro rappresentante verso gli altri e come maggiordomo con voi. Questo richiede un'intimità maggiore rispetto a un motore di ricerca, a un provider di e-mail, a un sistema di archiviazione cloud o a un telefono. Desidererete che questo assistente sia con voi 24 ore su 24, 7 giorni su 7, e che si istruisca costantemente su tutto ciò che fate. Sarete voi a volere che sappia tutto di voi, in modo da poter lavorare nel modo più efficace per vostro conto.

E questo assistente vi aiuterà in molti modi. Noterà i vostri stati d'animo e saprà cosa suggerirvi, anticiperà le vostre esigenze e lavorerà per soddisfarle. Sarà il vostro terapeuta, life coach e consulente relazionale.

Vi verrà spontaneo considerarlo un amico: vi rivolgerete a lui in linguaggio naturale, e lui farà lo stesso con voi. Se è un robot, avrà un aspetto umanoide o almeno simile a un animale. Interagirà con tutta la vostra esistenza, proprio come farebbe un’altra persona.

Il suo uso del linguaggio naturale è decisivo, in questo caso, perché siamo portati automaticamente a pensare agli altri che parlano la nostra lingua come persone, mentre a volte abbiamo problemi a trattare come persone chi parla una lingua diversa dalla nostra.

Prosegue Schneier:

[...] Vorrete fidarvi di questo assistente, che userà i vostri stessi modi di fare e riferimenti culturali, avrà una voce convincente, un tono sicuro e un modo di fare autorevole. La sua personalità sarà ottimizzata esattamente su ciò che vi piace e a cui reagite. Si comporterà in modo affidabile, ma non sarà affidabile. Non sapremo come è stata addestrata, quali sono le sue istruzioni segrete o i suoi pregiudizi, accidentali o intenzionali.

Sappiamo però che queste intelligenze artificiali vengono create con costi enormi, per lo più in segreto, da aziende che massimizzano il profitto per il proprio beneficio.

Non è un caso che queste intelligenze artificiali aziendali abbiano un'interfaccia simile a quella umana. Non è inevitabile: è una scelta progettuale. Le si potrebbe progettare per essere meno personali, meno simili all’essere umano, più dichiaratamente dei servizi, come i motori di ricerca. Le aziende che stanno dietro queste intelligenze artificiali [...] sfrutteranno il fatto che le scambiamo per amiche, e potremmo non avere altra scelta che usarle.

Chi ci darà una IA affidabile?

A volte, infatti, non abbiamo altra scelta che fidarci di qualcuno o qualcosa perché è potente, spiega Bruce Schneier. Siamo costretti a fidarci della polizia locale, perché è l'unica autorità di polizia in città. Siamo costretti a fidarci di alcune aziende, perché non ci sono alternative valide [...]. Ci troveremo nella stessa posizione con le intelligenze artificiali: non avremo altra scelta che affidarci ai loro processi decisionali.

E la confusione fra amico e servizio aiuterà a mascherare questa disparità di potere. Dimenticheremo quanto sia potente l'azienda che sta dietro l'intelligenza artificiale, perché ci fisseremo sulla “persona” che pensiamo che l’intelligenza artificiale sia.

Schneier elenca poi alcuni modi in cui le intelligenze artificiali possono fallire.

C'è la frode vera e propria, in cui l’intelligenza artificiale sta effettivamente cercando di rubarvi qualcosa. C'è il più prosaico errore di competenza, in cui pensate che questa intelligenza artificiale sia più esperta di quanto non sia realmente, perché si comporta ostentando sicurezza. C'è l'incompetenza, quando si crede che l’intelligenza artificiale sia in grado di fare qualcosa che non è in grado di fare. C'è l'incoerenza, quando ci si aspetta erroneamente che una intelligenza artificiale sia in grado di ripetere i propri comportamenti. E c'è l'illegalità, quando si confida, erroneamente anche qui, che l'intelligenza artificiale rispetti la legge.

Tutto questo vuol dire che abbiamo bisogno di un'intelligenza artificiale affidabile, di cui si conoscano il comportamento, i limiti e l’addestramento [nel podcast ho detto “formazione,” che è sbagliato: qui si intende proprio il training] i cui pregiudizi siano compresi e [vengano] corretti, di cui si capiscano gli obiettivi e che non tradirà segretamente la vostra fiducia a favore di qualcun altro.

Secondo Schneier,

[...] il mercato non fornirà spontaneamente queste cose, perché le aziende massimizzano i profitti, a spese della società. E gli incentivi del capitalismo di sorveglianza sono troppo forti per resistere. Sono invece i governi a fornire i meccanismi di base per la fiducia sociale, che è essenziale per la società. Pensiamo al diritto contrattuale, alle leggi sulla proprietà, alle leggi che proteggono la vostra sicurezza personale e a tutte le norme di salute e sicurezza che vi permettono di salire su un aereo, mangiare al ristorante o acquistare un farmaco senza preoccupazioni.

I governi possono fare tutto questo per l’intelligenza artificiale. Abbiamo bisogno di leggi sulla trasparenza dell'intelligenza artificiale: quando viene utilizzata, come viene addestrata, quali pregiudizi e tendenze ha. Ci servono leggi che regolino la sicurezza dell'intelligenza artificiale e della robotica e dicano quando è permesso che l’intelligenza artificiale abbia un impatto sul mondo. Abbiamo bisogno di leggi che impongano l'affidabilità dell'intelligenza artificiale, il che significa la capacità di riconoscere quando queste leggi vengono infrante. E servono sanzioni sufficientemente elevate da incentivare un comportamento affidabile.

Molti Paesi stanno valutando leggi sulla sicurezza delle intelligenze artificiali - l'Unione Europea è la più avanti - ma secondo Schneier si sta commettendo un errore cruciale: si cerca di regolamentare le intelligenze artificiali e non gli esseri umani che vi stanno dietro.

[...] Se vogliamo un'intelligenza artificiale affidabile, dobbiamo richiedere controllori dell'intelligenza artificiale affidabili. Abbiamo già un sistema per queste cose: i fiduciari. [...] Medici, avvocati, commercialisti... sono tutti agenti di fiducia. Hanno bisogno di un accesso straordinario alle nostre informazioni e a noi stessi per svolgere il loro lavoro, e quindi hanno ulteriori responsabilità legali per agire nel nostro migliore interesse. Hanno una responsabilità fiduciaria nei confronti dei loro clienti.

Abbiamo bisogno della stessa cosa per i nostri dati. L'idea di un fiduciario dei dati non è nuova, ma è ancora più vitale in un mondo di assistenti di intelligenza artificiale generativi.

Modelli di IA pubblici

Secondo Schneier serve anche un’altra cosa: quelli che lui definisce modelli di intelligenza artificiale pubblici

Sistemi costruiti dal mondo accademico, da gruppi non profit [nel podcast ho detto “no-profit”, ma è sbagliato] o dal governo stesso, che possono essere posseduti e gestiti dai singoli individui. Non si tratta di un modello di intelligenza artificiale aziendale che il pubblico è semplicemente libero di utilizzare. Non è un modello di intelligenza artificiale aziendale che il governo ha concesso in licenza. Non è nemmeno un modello open source che il pubblico è libero di esaminare e modificare. Un modello pubblico è un modello costruito dal pubblico per il pubblico. Richiede una responsabilità politica, non solo una responsabilità di mercato, dice Schneier.

Ciò significa apertura e trasparenza, abbinate alla capacità di rispondere alle richieste del pubblico. Dovrebbe anche essere disponibile, quest’intelligenza artificiale, a chiunque per costruirci sopra. Ciò significa accesso universale, e costituisce una base per un libero mercato delle innovazioni nell’intelligenza artificiale. Tutto questo sarebbe un contrappeso all'intelligenza artificiale di proprietà delle aziende.

Il saggio di Schneier si conclude con questa riflessione:

Non potremo mai trasformare le intelligenze artificiali in nostri amici, ma possiamo trasformarle in servizi affidabili e non doppiogiochisti. Però possiamo farlo solo se il governo lo impone. Perché lo scopo del governo è creare fiducia sociale [...]. Nella misura in cui un governo migliora la fiducia generale nella società, ha successo. E nella misura in cui non lo fa, fallisce. [...] Abbiamo bisogno che il governo limiti il comportamento delle aziende [nel podcast ho detto “Abbiamo bisogno di un governo per limitare il comportamento delle aziende”] e delle intelligenze artificiali che le aziende costruiscono, distribuiscono e controllano. Il governo deve imporre sia prevedibilità che affidabilità.

È così che possiamo creare la fiducia sociale di cui la società ha bisogno per prosperare.

– Bruce Schneier, AI and Trust, dicembre 2023

2024/04/22

RSI - Niente Panico 2024/04/22

È a vostra disposizione la puntata di questa settimana di Niente Panico, il programma radiofonico che conduco insieme a Rosy Nervi ogni lunedì mattina alle 11, in diretta alla RSI, in aggiunta al consueto podcast del Disinformatico: streaming (si apre in una finestra separata) e download. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica ma è troncata e dura circa 28 minuti invece della consueta ora:

  • Donne dimenticate dalla scienza: Rosalind Franklin
  • Interviste improbabili con Character.ai: Leonardo da Vinci
  • Intelligenza artificiale nel giornalismo: trascrizione con Whisper
  • Pseudo-album di Taylor Swift su Spotify creato con l’intelligenza artificiale; musica sintetica con Mubert
  • Chiediamo a ChatGPT come eliminare le intelligenze artificiali

2024/04/19

Podcast RSI - Story: La beffa dei cookie rifiutati

logo del Disinformatico

Ultimo aggiornamento: 2024/04/25 8:35.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Voce sintetica che legge tediosamente un avviso di cookie]

Se provate a cliccare su “Rifiuto" quando un sito vi chiede se accettate o rifiutate i cookie, due siti su tre in Europa ignoreranno la vostra richiesta. Quella irritantissima, onnipresente finestrella che da anni compare quando visitiamo un sito per la prima volta sembra essere insomma una totale perdita di tempo. Perlomeno questo è il risultato di un esperimento svolto recentemente da un gruppo di ricercatori del Politecnico federale di Zurigo su un campione di quasi centomila siti popolari europei.

Questa è la storia dei cookie, del perché esistono, del motivo per cui siamo assillati da queste richieste di accettarli o rifiutarli, e di questa ricerca che a quanto pare mina alla base la loro esistenza.

Benvenuti alla puntata del 19 aprile 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Cookie, biscottini che vengono da lontano

Cookie, che in inglese americano vuol dire letteramente “biscotto”, è un termine informatico che arriva dagli anni Ottanta del secolo scorso, quando lo si usava nei sistemi UNIX per indicare un pacchetto di dati ricevuto da un programma e restituito intatto al sistema informatico che glielo aveva mandato.

La stessa idea fu adottata anche per Internet e in particolare per il Web: nel 1994, ossia trent’anni fa, i cookie furono usati per la prima volta da uno dei primissimi browser, Netscape (ve lo ricordate?). Servivano per sapere se un utente aveva già visitato il sito di Netscape in precedenza. Il cookie era, ed è tuttora, semplicemente un file che viene scritto sul computer dell’utente dal sito visitato da quell’utente e contiene delle informazioni che quel sito può leggere in un secondo momento. Per esempio, se un utente fa una serie di acquisti su un sito, il contenuto del carrello della spesa virtuale può essere salvato in un cookie, così se cade la connessione l’utente non deve ricominciare tutto da capo.

All’epoca, trent’anni fa, l’esistenza dei cookie era sconosciuta alla maggior parte degli utenti. I cookie erano soltanto una soluzione tecnica, per addetti ai lavori: una delle tante che venivano sviluppate in quel periodo frenetico di evoluzione di Internet. Ma un articolo del Financial Times [This bug in your PC is a smart cookie, 12/2/1996] ne parlò ampiamente a febbraio del 1996, facendo notare le implicazioni di privacy dell’uso dei cookie e scatenando l’interesse dell’opinione pubblica.

L’articolo del Financial Times che portò i cookie alla ribalta.

Da quel debutto lontano i cookie hanno fatto molta strada, e sono diventati utilissimi per ricordare per esempio le preferenze di lingua o di aspetto di un sito, in modo da non doverle tediosamente reimpostare ogni volta che si visita quel sito, ma sono diventati anche una delle forme di tracciamento più usate su Internet per la profilazione commerciale degli utenti. Quelle implicazioni di privacy accennate tre decenni fa si sono avverate, insomma, e oggi i grandi operatori commerciali e le agenzie pubblicitarie usano i cookie per pedinare virtualmente gli utenti e osservare i loro interessi di navigazione. Oltre il 90% dei siti web traccia gli utenti e raccoglie dati personali.

Il rischio di abuso era troppo alto, e così nel corso degli anni sono state emesse varie direttive europee sulla privacy digitale che hanno fatto scuola anche in buona parte del resto del mondo. È il caso, per esempio, della direttiva ePrivacy del 2002 e in particolare del GDPR, entrato in vigore nel 2018. Ed è a quel punto che sono comparse in massa nei siti le finestre di richiesta di accettare o rifiutare i cookie.

Il GDPR, infatti, ha imposto ai siti di informare gli utenti del fatto che venivano tracciati e di come venivano tracciati tramite i cookie, e la finestra di richiesta (tecnicamente si chiama cookie notice) ha risolto quest’obbligo. Perlomeno dal punto di vista dei siti. Dal punto di vista degli utenti, invece, questa finestra incomprensibile, con i suoi discorsi su cookie tecnici, cookie di funzionalità, cookie di profilazione e pubblicità mirata”, è stata percepita principalmente come una scocciatura, anche perché alla fine per poter usare i siti era quasi sempre necessario accettare questi benedetti cookie e quindi c’era ben poca scelta concreta.

E così siamo diventati un po’ tutti bravi cliccatori automatici del pulsante “Accetta tutti, ma in sostanza non è cambiato nulla e continuiamo a essere profilati nelle nostre navigazioni.

Ricerca: il 65% dei siti web probabilmente ignora la richiesta di rifiuto dei cookie

L’articolo dei ricercatori del Politecnico di Zurigo, disponibile presso Usenix.org, spiega il metodo usato per documentare con i dati quello che molti utenti sospettano da tempo: i ricercatori hanno adoperato il machine learning, una particolare branca dell’intelligenza artificiale, per automatizzare il processo di interazione con queste richieste di cookie dei siti. Questo ha permesso di estendere la ricerca a ben 97.000 siti fra i più popolari, scelti fra quelli che si rivolgono principalmente a utenti dell’Unione Europea, includendo siti scritti in ben undici lingue dell’Unione.

Con questo approccio, i ricercatori hanno potuto inoltre includere vari tipi differenti di avviso per i cookie e hanno potuto distinguere addirittura i vari tipi di cookie richiesti, ossia quelli necessari per il funzionamento del sito (i cosiddetti cookie tecnici) e quelli usati dai pubblicitari per tracciare i visitatori del sito (i cosiddetti cookie di profilazione), e sono riusciti anche a distinguere l’uso conforme o non conforme di questi cookie.

In pratica, il software sviluppato dai ricercatori ha interagito con gli avvisi per i cookie di questi siti nello stesso modo in cui lo avrebbe fatto una persona, ossia riconoscendone il testo e agendo di conseguenza, adattandosi alle singole situazioni, cliccando su “Accetto” o “Rifiuto” a seconda dei casi e acquisendo una copia dei cookie lasciati dal sito per verificare quali dati venivano acquisiti nonostante il rifiuto. Questo è il tipo di ricerca per il quale l’intelligenza artificiale risulta efficace e rende fattibili studi che prima sarebbero stati impossibili o assurdamente costosi.

I risultati, però, sono sconsolanti: oltre il 90% dei siti visitati con il software scritto dai ricercatori contiene almeno una violazione della privacy. Ci sono violazioni particolarmente vistose, come la mancanza totale di un avviso per i cookie nei siti che usano i cookie per la profilazione dei visitatori, che secondo i ricercatori si verifica in quasi un sito su tre, ossia il 32%.

Il 56,7% dei siti esaminati non ha un pulsante che consenta di rifiutare i cookie ma ha solo un pulsante per accettarli. I siti che hanno questo pulsante di rifiuto e fanno profilazione commerciale tramite cookie nonostante l’utente abbia rifiutato la profilazione sono il 65,4%. Fra i siti che usano i cookie di profilazione, uno su quattro, ossia il 26%, non dichiara di farlo.

Un altro dato interessante che emerge da questa ricerca è che i siti più popolari sono quelli che hanno la maggior probabilità di offrire un avviso per i cookie e un pulsante per rifiutarli e che maggiormente dichiarano di profilare gli utenti, ma sono anche i siti che tendono a ignorare maggiormente il rifiuto degli utenti o a presumere un consenso implicito. In altre parole, dicono i ricercatori, “i siti popolari mantengono una facciata di conformità, ma in realtà rastrellano più dati degli utenti di quanto facciano i siti meno popolari.”

Che si fa?

È facile pensare che a questo punto i ricercatori abbiano in sostanza stilato un enorme elenco di siti inadempienti, da portare subito in tribunale o di fronte a un’autorità per la protezione dei dati, ma non è così. A differenza di molte altre ricerche condotte usando software di intelligenza artificiale, in questa viene messo molto in chiaro che una procedura automatica di questo tipo ha un rischio di falsi positivi troppo elevato, circa il 9%, e che quindi le segnalazioni fatte dall’intelligenza artificiale andrebbero controllate una per una. In altre parole, il metodo in generale funziona e permette di valutare la scala del problema, ma non è sufficientemente preciso da poter puntare automaticamente il dito sui singoli siti che non rispettano le norme.

Questo non vuol dire che tutta questa ricerca sia inutile all’atto pratico perché tanto non consente di intervenire. Anzi, lo scopo dei ricercatori è fornire per la prima volta uno strumento che finalmente consenta una “analisi su vasta scala, generale e automatizzata, della conformità degli avvisi per i cookie”, ben più ampia di tutti gli studi precedenti, e che permetta quindi una vigilanza maggiore di quella attuale, che è manuale, per identificare i violatori delle norme.

La vigilanza manuale ha già colpito parecchie volte. Per esempio, i ricercatori notano che l’agenzia francese per la protezione dei dati, il CNIL, ha multato Amazon per 35 milioni di dollari perché elaborava dati personali senza aver prima ottenuto il consenso dell’utente e segnalano anche che lo stesso CNIL ha multato Google e Facebook, rispettivamente per 150 e 90 milioni di euro, perché non fornivano un pulsante di rifiuto ma solo quello di accettazione dei cookie e chiedevano agli utenti di andare nelle impostazioni per rifiutare i cookie.

Anche con i controlli puramente manuali, insomma, le sanzioni arrivano, ma a quanto pare sono ancora moltissimi i siti che preferiscono rischiare le multe e sperano di farla franca perché le probabilità di essere scoperti sono state finora scarse e un’eventuale multa veniva messa in conto come semplice costo operativo. Ma questa tecnica proposta dei ricercatori potrebbe cambiare la situazione.

Staremo a vedere, e nel frattempo continueremo a cliccare.

2024/04/15

Stasera alle 19 su Youtube: paradosso di Fermi e le dichiarazioni di Elon Musk

Stasera alle 19 sarò ospite del canale YouTube di Tesla Owners Italia per parlare delle ultime dichiarazioni di Elon Musk, tra alieni, missioni su Marte e SpaceX: chi lo osanna e chi lo prende per pazzo. Una parte della puntata sarà dedicata alle tariffe delle ricariche impazzite in Italia. Cosa c’è dietro? Con me ci saranno Fabrizio Colista, ingegnere e divulgatore tecnico scientifico, Daniele Invernizzi e Pierpaolo Zampini. Coordina Luca Del Bo.

https://www.youtube.com/watch?v=PhKLDlQZwAA

RSI - Niente Panico 2024/04/15

La seconda puntata di Niente Panico, il nuovo programma radiofonico che conduco insieme a Rosy Nervi in diretta alla RSI in aggiunta al consueto podcast del Disinformatico, è disponibile qui in streaming (si apre in una finestra separata) e come download qui. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica:

  • La traduzione italiana dell’autobiografia dell’astronauta lunare Michael Collins (Carrying the Fire)
  • Il film Fly Me to the Moon che prende in giro i complottisti
  • La lettura della poesia di Collins e di quella di sua moglie
  • Perché il delfino ha le branchie ne Il vecchio e il mare
  • Rose Villain aggredita con i deepfake; tatuaggi come tecnica di difesa
  • La crisi d’immagine di Fedez e Ferragni
  • Influencer virtuali
  • Non usare il termine revenge porn
  • Deepfake per truffe
  • Interviste improbabili con Character.ai: Dante Alighieri
  • Donne dimenticate dalla scienza: Eunice Newton Foote

2024/04/14

È morto Giovanni Battista Judica Cordiglia. No, non aveva intercettato le voci di cosmonauti morti nello spazio prima di Gagarin

Andrea Ferrero su Mastodon segnala la scomparsa di uno dei protagonisti italiani del cospirazionismo spaziale: “È morto il tecnico elettronico Giovanni Battista Judica Cordiglia. Oggi molti giornali diranno che insieme al fratello Achille aveva intercettato le voci di cosmonauti morti nello spazio prima di Gagarin. Non è vero”.

https://mastodon.uno/@andrea_ferrero@sociale.network/112268577678233664

Per saperne di più, consiglio questo articolo del Cicap sulle false credenze spaziali:

https://www.cicap.org/n/articolo.php?id=1801027

e il libro Cosmonauti perduti di Luca Boschini:

https://www.cicap.org/new/prodotto.php?id=3859

2024/04/12

Biografie astronautiche oggi col 20% di sconto

Per festeggiare la Giornata internazionale del volo umano nello spazio, l’editore Cartabianca.com offre solo per oggi il 20% di sconto sulle autobiografie degli astronauti lunari Cernan, Young e Collins dando il codice spaceman.

Podcast RSI - Story: Deepfake fra plagio, abuso e autodifesa

logo del Disinformatico

Ultimo aggiornamento: 2024/04/18 8:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

Deepfake. È la parola usata per indicare la tecnica informatica che permette di sostituire il volto di una persona con un altro, in foto e in video, usando l’intelligenza artificiale, in maniera molto realistica. Così realistica che, se il deepfake è fatto bene, la maggior parte delle persone non si accorge affatto che si tratta di un volto sostituito.

Per molti utenti, deepfake è sinonimo di molestia, di truffa, ma per altri invece è un’occasione di lavoro, di scoperta della propria personalità, e addirittura di protezione personale.

Benvenuti alla puntata del 12 aprile 2024 del Disinformatico, che stavolta racconta due casi molto differenti di applicazione di deepfake che spaziano dal plagio alla molestia fino all’autodifesa, e presenta le nuove regole di Meta per la pubblicazione di deepfake e immagini sintetiche in generale. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Influencer virtuali in crescita ma sotto attacco deepfake

Pochi mesi fa, a dicembre 2023, vi ho raccontato la mia esplorazione del fenomeno delle cosiddette influencer virtuali: persone che non esistono, le cui immagini e i cui video sono generati dall’intelligenza artificiale. Identità che sono pilotate da persone reali che scelgono le loro pose, il loro vestiario e le loro apparizioni sui social network.

Una delle più celebri influencer virtuali è la spagnola Aitana Lopez, gestita da un’agenzia di moda di Barcellona: oggi ha oltre 300.000 follower su Instagram (@fit_aitana) e fa guadagnare i suoi creatori tramite i contratti pubblicitari e la vendita di foto piccanti su piattaforme per adulti come Fanvue.

L’idea dell’influencer virtuale, quasi sempre al femminile (anche se c’è qualche raro, timido tentativo al maschile), piace molto al mercato: costa molto meno di una modella o di una influencer in carne e ossa, non si lamenta delle ore di lavoro o dei vestiti scomodi, non si stanca, non invecchia, non ingrassa e non ha spese di trasferta. Se una campagna pubblicitaria ha bisogno di un volto o di un corpo che attirino l’attenzione o semplicemente indossino un certo prodotto, può rivolgersi a questi personaggi sintetici a basso costo e alta efficienza. Nessuno del pubblico si accorgerà che si tratta di immagini generate dall’intelligenza artificiale.

Creare questi personaggi virtuali è abbastanza semplice: ero riuscito anch’io a creare un clone molto realistico di Aitana Lopez, con l’aiuto di una coppia di persone esperte di grafica digitale. La parte difficile è guadagnarci qualcosa, cercando sponsor o contratti pubblicitari e scansando le offerte truffaldine di una selva di sedicenti promotori che si fanno pagare promettendo di farti avere tanti follower (tutti falsi). Ho chiuso il mio esperimento senza rimetterci soldi, ma ho continuato a seguire gli sforzi di chi mi aveva aiutato e che ora comincia a vedere i primi guadagni. Qualche foto per la copertina di un CD o di una playlist di una band emergente, qualche illustrazione per piccoli eventi, qualche fotografia sexy venduta online, tanti contenuti pubblicati diligentemente tutti i giorni, e i follower, soprattutto su Instagram, alla fine arrivano, anche nel mercato di lingua italiana, al di qua e al di là della frontiera.

Profili sintetici come Francesca Giubelli (11.000 follower), Rebecca Galani (15.000 follower) o Ambrissima (37.000 follower) vengono intervistati virtualmente dai media generalisti come se fossero persone reali, e spostano opinioni e creano discussioni, anche su temi impegnativi come il clima o i diritti umani, proprio come se fossero persone reali. Non hanno i numeri dei grandi influencer reali, certo, ma in compenso costano molto meno e soprattutto non fanno gaffe e non causano imbarazzi ai loro sponsor con le loro vicende sentimentali. Aspettatevi, insomma, che nei prossimi mesi siano sempre più presenti e numerosi gli influencer virtuali le cui immagini sono generate con l’intelligenza artificiale.

Stanno nascendo anche le prime community di influencer virtuali in lingua italiana, come Aitalia.community, i cui membri si scambiano trucchi e consigli tecnici e di marketing e si sono dati un “manifesto etico” di trasparenza, che esige per esempio che i contenuti sintetici siano sempre dichiarati come tali, a differenza di alcuni settimanali blasonati che spacciano per autentiche delle foto talmente ritoccate da dare due piedi sinistri alle persone ritratte.

[Nota: Aitalia mi ha precisato di definirsi “la prima community di AI models, influencers e talents etici a livello globale” e “la prima a redarre il manifesto etico condiviso con l’internazionale” (nel senso delle “community nate fuori dai confini italiani, come AVA Models e Virtual factors”)]

Al primo punto di questo manifesto c’è il divieto dei deepfake non consensuali. Moltissimi artisti digitali che creano e curano belle immagini di modelle e modelli virtuali si vedono infatti plagiare il lavoro da operatori senza scrupoli, che scaricano in massa le immagini prodotte da questi artisti, sostituiscono i volti dei loro personaggi usando la tecnica del deepfake, senza permesso e senza compenso, e così riusano a scrocco la fatica altrui ripubblicandola sui propri profili social, che spesso hanno un seguito maggiore di quello degli artisti originali.

È un nuovo tipo di pirateria dei contenuti, ed è un problema che tocca anche le modelle e i modelli in carne e ossa. Nelle varie piattaforme social, infatti, abbondano i profili che hanno centinaia di migliaia di follower, con i relativi guadagni, ottenuti pubblicando le foto o i reel, ossia i video, di persone reali, quasi sempre donne, e sostituendone i volti per spacciarli per immagini create da loro. Lo segnala per esempio un articolo su 404media, facendo nomi e cognomi di questi sfruttatori della fatica altrui.

Molti creatori di contenuti si stanno difendendo usando il watermarking, ossia la sovrimpressione di scritte semitrasparenti per identificare l’autore originale dell’immagine sintetica o reale, ma i software di intelligenza artificiale riescono spesso a cancellare queste sovrimpressioni.

Se state pensando di fare l’influencer virtuale o reale perché vi sembra un lavoro facile, o di promuovere la vostra arte online, mettete in conto anche il rischio della pirateria. E se pensavate che fare la modella o il modello fosse uno dei pochi lavori non influenzati dall’intelligenza artificiale, devo darvi una delusione: a parte forse marmisti e pizzaioli, non si salva nessuno.

Salva dallo stalking grazie al deepfake: Sika Moon

Dalla Germania arriva un caso molto particolare di uso positivo della tecnica del deepfake, segnalato in un’intervista pubblicata da Die Tageszeitung e dedicata a una giovane donna che si fa chiamare Sika Moon e pubblica e vende online le proprie foto e i propri video per adulti. Questo è il suo lavoro a tempo pieno, e le sue attività sulle varie piattaforme social sono seguite in media da circa 4 milioni di persone al mese, dandole guadagni mensili che lei definisce “stabilmente a cinque cifre”.

Anche il suo lavoro è stato toccato dall’intelligenza artificiale. Per cinque anni ha lavorato pubblicando sulla piattaforma Onlyfans, mostrando il suo vero volto, ma delle esperienze di stalking che definisce “terribili” l’hanno costretta a proteggersi ricorrendo all’anonimato, ottenuto in questo caso facendo un deepfake a se stessa. Il viso della donna in questione, infatti, nelle foto e nei video è generato con l’intelligenza artificiale, ed è differente dal suo, ma è talmente realistico che pochi si accorgono della manipolazione. Ora ha cambiato piattaforma, perché Onlyfans rifiuta i contenuti generati sinteticamente.

Questo deepfake, insomma, le ha permesso di evitare che il suo lavoro fosse sabotato dagli stalker e le consente di proseguire la propria attività in sicurezza. È un tipo di uso positivo di questa tecnologia che non riguarda solo chi vuole proteggersi da persone pericolosamente invadenti ma vale anche, per esempio, per chi vive in un ambiente in cui è considerato reato, tipicamente solo per le donne, mostrare il proprio volto oppure è comunque necessario coprirlo o mascherarlo per non farsi identificare, per provare in sicurezza esperienze altrimenti impossibili. Un deepfake, insomma, è una maschera che però lascia passare tutta l’espressività di un viso.

Inoltre, sempre grazie all’intelligenza artificiale, Sika Moon può comunicare con i propri fan direttamente nella loro lingua. Ha infatti fatto clonare la propria voce e quindi può ora inviare messaggi vocali ai suoi follower parlando ogni volta nella loro rispettiva lingua.

Nell’intervista, Sika Moon segnala inoltre un altro fenomeno interessante che riguarda le immagini generate dall’intelligenza artificiale: in molte culture l’idea stessa che una fotografia di una persona possa essere creata sinteticamente è inconcepibile o fa molta fatica a essere accettata. In fin dei conti, una foto è una foto, un disegno è un disegno. Solo il computer permette di creare in grandi quantità disegni che sembrano fotografie. “La gente in India, nei paesi africani e in quelli arabi di solito non lo capisce affatto”, spiega Sika Moon, nonostante il suo profilo dichiari chiaramente che molte sue immagini sono completamente generate dall’intelligenza artificiale. E quello che dice corrisponde anche alla mia esperienza nel seguire le attività di altre persone che fanno lo stesso lavoro di Sika Moon appoggiandosi all’informatica per le proprie immagini.

Tutto questo sembra indicare che l’impatto culturale dell'IA sarà differente nei vari paesi del mondo. In quelli tecnologizzati verrà probabilmente attutito dalla familiarità con la tecnologia, ma in altri sarà molto più destabilizzante. Forse sarebbe opportuno tenerne conto, per non creare una nuova forma di inquinamento digitale da esportare.

Nuove regole di Meta per i contenuti sintetici

La stragrande maggioranza delle foto, dei video e degli audio generati dall’intelligenza artificiale circola sui social network ed è lì che ha il maggiore impatto. Ma allora perché i social network non fanno qualcosa per impedire la diffusione di fake news, inganni e manipolazioni che usano l’intelligenza artificiale?

La risposta a questa domanda è che in realtà i social fanno qualcosa, ma quello che fanno è inadeguato, perché la tecnologia si evolve talmente in fretta che le regole scritte per esempio dal gruppo Meta per uniformare la gestione dei contenuti sintetici da parte di Facebook, Instagram e Threads risalgono a soli quattro anni fa ma sono completamente obsolete. Nel 2020 i contenuti realistici generati dall’intelligenza artificiale erano rarissimi e si temeva soprattutto la manipolazione dei video. Da allora, invece, sono emerse le immagini sintetiche realistiche producibili in massa e anche i contenuti audio falsi e creati artificialmente.

E così Meta ha presentato le sue nuove regole con un comunicato stampa il 5 aprile scorso: prossimamente smetterà di censurare direttamente i contenuti “innocui” generati dall’intelligenza artificiale e a partire da maggio applicherà un’etichetta di avviso a una gamma più vasta di contenuti video, audio e di immagini se rileverà che sono stati creati o manipolati adoperando l’intelligenza artificiale o se chi li pubblica li indicherà spontaneamente come generati usando questa soluzione.

Mentre finora le regole bandivano soltanto i video realizzati o alterati con l’intelligenza artificiale che facevano sembrare che una persona avesse detto qualcosa che non aveva detto, ora verranno etichettati anche i video modificati per attribuire a una persona un comportamento o un gesto che non ha commesso. Da luglio, inoltre, Meta smetterà di censurare i contenuti generati che non violano le regole su argomenti come le interferenze elettorali, il bullismo, le molestie, la violenza e l’istigazione. In sostanza, ci saranno meno rimozioni e più etichettature di avvertimento.

Tuttavia c’è il problema che al momento attuale Meta si affida agli indicatori standard per riconoscere le immagini sintetiche. Molti software per la generazione di immagini, come quelli di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, includono nelle proprie immagini un indicatore visibile o rilevabile digitalmente, una sorta di bollino che le marca come sintetiche, e Meta usa solo questo indicatore per sapere se un’immagine è alterata oppure no; non fa nessun altro controllo. Di conseguenza, un creatore ostile può quindi generare immagini o video senza indicatori, o togliere questi indicatori da contenuti esistenti, che non verranno riconosciuti ed etichettati da Meta come sintetici.

Per colmare almeno in parte questa lacuna, Meta offrirà agli utenti la possibilità di etichettare volontariamente i contenuti generati con l’intelligenza artificiale e applicherà penalità a chi non usa questa etichettatura. Ma è chiaro che chi vuole ingannare o disseminare disinformazione non aderirà certo a questo volontariato e potrà farla franca anche con le nuove regole. Come al solito, insomma, i social network fanno troppo poco, troppo tardi.

Fonte aggiuntiva: Ars Technica.