Cerca nel blog

2024/09/06

Podcast RSI - Gli smartphone ci ascoltano? No, ma...

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesSpotify e feed RSS (Google Podcasts non esiste più, al suo posto c’è YouTube Music). 

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

I telefonini ascoltano le nostre conversazioni per bombardarci di pubblicità? La risposta degli esperti è sempre stata un secco “no”, nonostante la montagna di aneddoti e di casi personali raccontati dagli utenti, che dicono in tanti di aver visto sul telefonino la pubblicità di uno specifico prodotto poco dopo aver menzionato ad alta voce il nome o la categoria di quel prodotto.

La tecnologia, però, galoppa, i telefonini diventano sempre più potenti e i pubblicitari diventano sempre più avidi di dati personali per vendere pubblicità sempre più mirate ed efficaci, e quindi oggi quel secco “no” va aggiornato, trasformandolo in un “no, ma…”, perché un’azienda importante è stata colta a proporre ai clienti proprio questo tipo di ascolto delle conversazioni a scopo pubblicitario.

Questa è la storia di quel “no” e soprattutto di quel “ma”. Non è il caso di farsi prendere dal panico, ma è opportuno sapere dove sta andando la tecnologia e quali semplici gesti si possono fare per evitare il rischio di essere ascoltati dai nostri inseparabili smartphone.

Benvenuti alla puntata del 6 settembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

---

Se ne parla da anni: moltissime persone sono convinte che i loro smartphone ascoltino costantemente le loro conversazioni e colgano le parole chiave di quello che dicono, selezionando in particolare i termini che possono interessare ai pubblicitari. C’è la diffusissima sensazione che basti parlare di una specifica marca di scarpe o di una località di vacanze, senza cercarla su Internet tramite il telefonino, per veder comparire sullo schermo la pubblicità di quel prodotto o di quel servizio. Praticamente tutti i proprietari di smartphone possono citare casi concreti accaduti a loro personalmente.

Restano inascoltate, invece, le spiegazioni e le indagini fatte dagli esperti in vari paesi del mondo in questi anni. I test e le inchieste della rete televisiva statunitense CBS e della Northeastern University nel 2018, gli esperimenti della BBC insieme alla società di sicurezza informatica Wandera nel 2019, l’inchiesta del Garante italiano per la protezione dei dati personali nel 2021: tutte queste ricerche sul problema non hanno portato a nulla. Non c’è nessuna conferma oggettiva che i telefonini ci ascoltino e mandino ai pubblicitari le nostre parole per impostazione predefinita. Quando si fanno i test in condizioni controllate, il fenomeno sparisce.

Per esempio, nella loro indagine del 2019, la BBC e Wandera hanno messo due telefonini, un Android di Samsung e un iPhone di Apple, in una stanza e per mezz’ora hanno fatto arrivare nella stanza l’audio di pubblicità di cibo per cani e per gatti. Hanno anche piazzato due telefonini identici in una stanza isolata acusticamente. Tutti questi telefoni avevano aperte le app di Facebook, Instagram, SnapChat, YouTube e Amazon, insieme al browser Chrome, e a tutte queste app erano stati dati tutti i permessi richiesti.

I ricercatori hanno successivamente controllato se nelle navigazioni fatte dopo il test con quegli smartphone sono comparse pubblicità di cibi per animali domestici e hanno analizzato il consumo della batteria e la trasmissione di dati durante il test. Hanno ripetuto tutta questa procedura per tre giorni, e il risultato è stato che non sono comparse pubblicità pertinenti sui telefonini esposti agli spot di cibi per animali e non ci sono stati aumenti significativi del consumo di batteria o della trasmissione di dati. I consumi e le trasmissioni di dati sono stati praticamente uguali per i telefoni esposti all’audio pubblicitario e per quelli nella stanza silenziosa.

Se ci fosse un ascolto costante e un’altrettanto costante analisi dell’audio ambientale, questo produrrebbe un aumento dei consumi, perché il processore del telefono lavorerebbe in continuazione, e ci sarebbe un aumento della trasmissione di dati, per inviare le informazioni ascoltate ai pubblicitari. E invece niente. Anzi, i ricercatori hanno osservato che i telefonini Android nella stanza isolata acusticamente trasmettevano più dati rispetto a quelli esposti all’audio preparato per l’esperimento, mentre gli iPhone facevano il contrario.

Altri esperimenti analoghi sono stati fatti negli anni successivi, e tutti hanno dato gli stessi risultati. Il picco di consumo energetico e di trasmissione di dati prodotto dagli assistenti vocali, cioè Siri e OK Google, è sempre emerso chiaramente in questi test. Questi assistenti vocali sono in ascolto costante per impostazione predefinita (anche se si possono disattivare), e questo non è minimamente in dubbio, ma lavorano in maniera molto differente rispetto a un ipotetico ascolto pubblicitario.

Gli assistenti vocali, infatti, ascoltano l’audio ambientale alla ricerca di suoni che somiglino a una o due parole chiave di attivazione – tipicamente “Ehi Siri” e “OK Google” – e quando credono di averle sentite iniziano una vistosissima trasmissione di dati verso le rispettive case produttrici. L’ipotetico ascolto pubblicitario, invece, dovrebbe cercare e riconoscere un insieme di parole molto più vasto e magari anche in più di una lingua, e questo richiederebbe molta più potenza di calcolo e quindi consumi molto più elevati, e poi dovrebbe trasmettere dei dati, cosa che i test finora hanno smentito.

Ma allora perché abbiamo la forte sensazione che i telefonini ci ascoltino lo stesso a scopo pubblicitario? E perché avete probabilmente la sensazione altrettanto forte che alla fine di questo mio racconto ci sia una novità che smentisce tutto quello che si era scoperto fin qui?

---

La sensazione di ascolto pubblicitario viene spiegata dagli esperti con la cosiddetta “illusione di frequenza”, per usare il termine coniato dal professore di linguistica Arnold Zwicky della Stanford University. In parole povere, tendiamo a notare le coincidenze e a dimenticare le non coincidenze. Nel corso della giornata vediamo moltissime pubblicità, ma ci rimangono impresse solo quelle che coincidono con qualcosa che abbiamo detto o fatto. E quando la coincidenza è particolarmente specifica ci colpisce anche emotivamente.

Va detto che la pubblicità che vediamo sui nostri dispositivi non è affatto casuale, e quindi le coincidenze sono agevolate: Google e Facebook, per esempio, usano un vasto assortimento di tecniche per dedurre i nostri interessi e proporci pubblicità mirata. Sanno dove ci troviamo minuto per minuto, grazie alla geolocalizzazione del GPS e del Wi-Fi; sanno con chi siamo e con chi trascorriamo più tempo, grazie al monitoraggio passivo dei dispositivi Bluetooth nelle nostre vicinanze, all’analisi del traffico di messaggi e al fatto che affidiamo a loro le nostre agende e le nostre rubriche telefoniche; sanno cosa scriviamo nelle mail o rispettivamente sui social network. Con dati del genere, ascoltare le conversazioni è praticamente superfluo. Oltretutto la legalità di un ascolto di questo tipo sarebbe molto controversa, visto che si tratterebbe in sostanza di una intercettazione di massa di conversazioni che si ha il diritto di presumere che siano private.

Va anche detto, però, che non è un mistero che esistano tecnologie di ascolto installabili sugli smartphone. I servizi di sicurezza dei vari governi le usano abitualmente per intercettare le comunicazioni delle persone indagate. Già dieci anni fa, Edward Snowden spiegò che l’NSA aveva accesso diretto ai sistemi di Google, Facebook e Apple nell’ambito di un programma di sorveglianza governativa denominato PRISM [The Guardian, 2013]. Ma si tratta di intercettazioni mirate, specifiche, ordinate da un governo su bersagli selezionati, non di ascolti di massa, collettivi e senza basi legali. In ogni caso, è indubbio che usare uno smartphone come microfono nascosto, a insaputa dell’utente, sia tecnicamente possibile.

Si sa anche di un caso conclamato di ascolto ambientale tramite telefonini a scopo commerciale: nel 2019 l’app ufficiale del campionato spagnolo di calcio, LaLiga, fu colta a usare il microfono e la geolocalizzazione degli smartphone degli utenti per identificare i locali che trasmettevano le partite senza autorizzazione. L’agenzia spagnola per la protezione dei dati impose all’organizzazione sportiva una sanzione di 250.000 euro per questo comportamento. Ma anche in questo caso, si trattava di un ascolto effettuato da una specifica app, installata su scelta dell’utente, con tanto di richiesta esplicita del permesso di usare il microfono del telefono, non di una attivazione collettiva e nascosta dei microfoni di tutti gli smartphone così come escono dalla fabbrica.

Questa storia, però, prosegue a dicembre 2023, quando alcuni giornali segnalano che una società di marketing, la statunitense Cox Media Group, avrebbe “ammesso di monitorare le conversazioni degli utenti per creare annunci pubblicitari personalizzati in base ai loro interessi” [Il Sole 24 Ore, 28 dicembre 2023, paywall].

Sembra essere la conferma che il sentimento popolare era giusto e che gli esperti avevano torto. Ma per capire come stanno realmente le cose bisogna andare un pochino più a fondo.

---

La scoperta di questa presunta ammissione da parte di Cox Media Group è merito della testata 404 Media, che ha pubblicato lo scoop in un articolo riservato agli abbonati e quindi non immediatamente accessibile [paywall].

Ma pagando l’abbonamento e andando a leggere l’articolo originale, come ho fatto io per questo podcast, emerge che non c’è nessuna ammissione di monitoraggio in corso, ma semplicemente c’è l’annuncio che Cox Media Group dispone della capacità di effettuare un eventuale monitoraggio tramite i microfoni degli smartphone e anche tramite quelli dei televisori smart e di altri dispositivi. Non c’è nessuna dichiarazione che la stia realmente usando.

Anzi, il materiale promozionale di Cox Media Group dice che questa tecnologia, denominata “Active Listening” o “ascolto attivo”, “è agli albori” (“Active Listening is in its early days”), e presenta questa capacità tecnica come “una tecnica di marketing adatta al futuro, disponibile oggi” [“a marketing technique fit for the future. Available today”].

Le affermazioni promozionali di Cox Media Group, ora rimosse ma salvate su Archive.org.

È disponibile, ma questo non vuol dire che venga usata. E i consulenti di vendita dell’azienda la presentano come se fosse un prodotto nuovo in cerca dei primi clienti.

I clienti di Cox Media Group, stando all’azienda, sono nomi come Amazon, Microsoft e Google. Stanno usando questa tecnologia di ascolto? Le risposte che hanno dato ai colleghi di 404 Media a dicembre scorso sembrano dire di no, ma inizialmente è mancata una smentita secca da parte loro. Smentita che è invece arrivata subito, stranamente, da Cox Media Group stessa, che ha dichiarato ai giornalisti di 404 Media che “non ascolta conversazioni e non ha accesso a nulla più di un insieme di dati fornito da terze parti e anonimizzato, aggregato e completamente cifrato usabile per il piazzamento pubblicitario” e ha aggiunto che si scusa per “eventuali equivoci”.

Eppure il suo materiale promozionale dice cose decisamente difficili da equivocare. O meglio, le diceva, perché è scomparso dal suo sito.

[È disponibile come copia d’archivio su Archive.org e su Documentcloud.org, che contiene frasi come “No, it’s not a Black Mirror episode - it’s Voice Data” e “Creepy? Sure. Great for marketing? Definitely”].

Ma pochi giorni fa, sempre 404 Media ha reso pubblica una presentazione di Cox Media Group [PDF] nella quale l’azienda parla esplicitamente di “dispositivi smart” che “catturano dati di intenzione in tempo reale ascoltando le nostre conversazioni” (“Smart devices capture real-time intent data by listening to our conversations”), parla di consumatori che “lasciano una scia di dati basata sulle loro conversazioni e sul loro comportamento online” (“Consumers leave a data trail based on their conversations and online behavior”) e parla di “dati vocali” (“voice data”).

La slide 1 della presentazione di Cox Media Group ottenuta da 404 Media.

Ma allora come stanno le cose? È indubbio, anche grazie alle testimonianze raccolte dai giornalisti di 404 Media, che Cox Media Group abbia cercato di vendere questa sua presunta capacità di ascoltare le nostre conversazioni. Ma l’ha davvero venduta, ed è realmente in uso? Sembra proprio di no.

Anzi, dopo che si è diffusa la notizia di questa sua offerta di tecnologie di ascolto, Google ha tolto Cox Media Group dal programma Google Partners dedicato ai migliori inserzionisti, nel quale la Cox era presente al massimo livello da oltre 11 anni. Amazon ha dichiarato di non aver mai lavorato con la Cox al programma di ascolto. Meta, invece, dice che sta valutando se la Cox abbia violato i termini e le condizioni della loro collaborazione, mentre Microsoft non ha rilasciato commenti.

[Meta ha dichiarato al New York Post che “non usa il microfono del vostro telefono per le pubblicità e lo dichiariamo pubblicamente da anni [...] stiamo cercando di comunicare con CMG per fare in modo che chiariscano che il loro programma non è basato su dati di Meta”. In originale: “Meta does not use your phone’s microphone for ads and we’ve been public about this for years [...] We are reaching out to CMG to get them to clarify that their program is not based on Meta data.”]

Insomma, formalmente intorno a chi ha proposto di ascoltare le nostre conversazioni a scopo pubblicitario è stata fatta terra bruciata, per cui tutta la vicenda sembra più un maldestrissimo tentativo di proporre una tecnologia di ascolto che una conferma di una sua reale applicazione in corso. E la rivelazione di questo tentativo mette in luce la falla non tecnica ma molto umana di qualunque piano di ascolto globale segreto delle conversazioni a scopo pubblicitario: è praticamente impossibile tenere nascosta una tecnologia del genere, che va presentata ai potenziali partner, va pubblicizzata agli addetti ai lavori, ai rivenditori, ai tecnici e a chissà quante altre persone. Il segreto dovrebbe essere condiviso da un numero enorme di persone, e prima o poi qualcuna di queste persone si lascerebbe sfuggire qualcosa oppure, presa da rimorsi di coscienza, vuoterebbe il sacco.

[L’inchiesta di 404 Media sembra essere partita appunto da una vanteria di ascolto pubblicitario fatta in un podcast da un’azienda del New Hampshire, la MindSift]

Anche stavolta, quindi, possiamo stare tranquilli, ma solo grazie al fatto che ci sono giornalisti che vigilano e segnalano i tentativi di invadere uno spazio così personale come quello di una chiacchierata privata tra colleghi, amici o coniugi. Perché un’invasione del genere è illegale e immorale, ma questo non impedirà a persone e aziende senza scrupoli di provarci lo stesso. E se comunque preferite spegnere il telefonino prima di una conversazione sensibile di qualunque tipo, male non fa. Non si sa mai.


Fonti aggiuntive: Cox Media Group Reveals Its 'Active Listening' Software Spies on User Convos, Clients Include Meta, Google (TechTimes.com); Marketing firm admits using your own phone to listen in on your conversations (New York Post); ; “Attenti al microfono del vostro smartphone: Cox Media Group vi spia per pubblicità mirate”, Hwupgrade.it.

2024/09/05

Pranzo dei Disinformatici 2024: aperte le iscrizioni. Ci troveremo sabato 5 ottobre

Come preannunciato, il Pranzo dei Disinformatici 2024 si terrà in uno dei Consueti Locali nella zona di Milano il 5 ottobre prossimo. Per iscriversi, e per tutte le informazioni, scrivete al Supremo Maestro di Cerimonie, Martino, a martinobri(@)outlook.it, indicando il nickname che usate su questo blog.

Spero di vedervi!

2024/09/02

Stamattina alle 11 torno a Rete Tre con “Niente panico”

Stamattina sarò in diretta sulla Rete Tre della Radiotelevisione Svizzera per la prima puntata della nuova serie di Niente Panico, un mix di notizie informatiche, chicche e musica, insieme a Rosy Nervi.

Se volete seguire la diretta: https://www.rsi.ch/audio/rete-tre/live. La registrazione apparirà qui: https://www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina.

2024/09/06. Eccola:

I link dei temi di cui abbiamo parlato nella puntata:

  • La chat con Tolkien (di cui ricorre l’anniversario della morte nel 1973), generata da Character.ai e recitata da ElevenLabs, con il clamoroso errore (per i ticinesi e i biaschesi in particolare) del dialetto di Biasca che sarebbe “una variante del tedesco svizzero che viene parlato dagli abitanti della Valle del Blenio, in Svizzera” (non lo è).
  • Oggi, 2 settembre, ricorre l’anniversario dell’Evento di Carrington, la più grande tempesta geomagnetica mai osservata da astronomi, avvenuta l’1-2 settembre 1859, che produsse aurore visibili addirittura a Roma ed ebbe effetti notevoli sulle telecomunicazioni di allora (telegrafo), rendendole inservibili per ore. Un evento analogo oggi probabilmente avrebbe effetti molto pesanti sulle nostre telecomunicazioni.
  • La proposta di un’associazione ambientalista di ridurre il numero dei gatti in Svizzera “per salvaguardare il clima” (Tvsvizzera.it).
  • L’account Instagram della settimana: @steppingthroughfilm, che visita i luoghi nei quali sono stati girati i film e poi scatta una foto a una stampa di un fotogramma del film allineandola con l’ambientazione reale.

2024/08/29

Podcast RSI - L’IA ha troppa fame di energia. Come metterla a dieta

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Una singola domanda a ChatGPT consuma grosso modo la stessa energia elettrica che serve per tenere accesa una lampadina comune per venti minuti e consuma dieci volte più energia di una ricerca in Google. La fame di energia dell’intelligenza artificiale online è sconfinata e preoccupante. Ma ci sono soluzioni che permettono di smorzarla.

Questa è la storia del crescente appetito energetico dei servizi online, dai social network alle intelligenze artificiali, del suo impatto ambientale e di come esiste un modo alternativo per offrire gli stessi servizi con molta meno energia e con molto più rispetto per la nostra privacy. Perché ogni foto, ogni documento, ogni testo che immettiamo in ChatGPT, Gemini, Copilot o altri servizi online di intelligenza artificiale viene archiviato, letto, catalogato, analizzato e schedato dalle grandi aziende del settore.

Benvenuti alla puntata del 30 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

---

Una recente indagine pubblicata da NPR, una rinomata organizzazione indipendente non profit che comprende un migliaio di stazioni radio statunitensi ed è stata fondata dal Congresso degli Stati Uniti, fa il punto della situazione sulla nuova fame di energia dovuta al boom delle intelligenze artificiali.

Quando usiamo un servizio online di intelligenza artificiale, come ChatGPT, Copilot o Gemini, per citare i più diffusi, i complessi calcoli necessari per elaborare e fornirci la risposta non avvengono sul nostro computer, tablet o telefonino, per cui non ci accorgiamo di quanta energia viene consumata per restituirci quella risposta. Il nostro dispositivo non fa altro che prendere la nostra richiesta, inoltrarla via Internet a questi servizi, e ricevere il risultato, facendocelo vedere o ascoltare.

Ma dietro le quinte, le intelligenze artificiali online devono disporre di grandi data center, ossia strutture nelle quali vengono radunati computer appositi, dotati di processori dedicati all’intelligenza artificiale, che hanno dei consumi energetici prodigiosi. Secondo una stima riportata da NPR, una singola richiesta a ChatGPT usa all’incirca la stessa quantità di energia elettrica necessaria per tenere accesa una normale lampadina per una ventina di minuti. Immaginate milioni di persone che interrogano ChatGPT tutto il giorno, e pensate a venti minuti di lampadina accesa per ogni domanda che fanno a questa intelligenza artificiale.

Secondo un’analisi pubblicata dalla banca d’affari Goldman Sachs a maggio 2024, una richiesta fatta a ChatGPT consuma 2,9 wattora di energia elettrica, quasi dieci volte di più di una normale richiesta di ricerca fatta a Google [0,3 wattora] senza interpellare i suoi servizi di intelligenza artificiale. Questa analisi stima che il fabbisogno energetico mondiale dei data center che alimentano la rivoluzione dell’intelligenza artificiale salirà del 160% entro il 2030; serviranno circa 200 terawattora ogni anno solo per i consumi aggiuntivi dovuti all’intelligenza artificiale.

Per fare un paragone, il consumo annuo svizzero complessivo di energia elettrica è stato di 56 terawattora [Admin.ch]. In parole povere: solo per gestire l’intelligenza artificiale servirà un’energia pari a quasi quattro volte quella consumata da tutta la Confederazione.

Questi data center attualmente sono responsabili di circa il 2% di tutti i consumi di energia elettrica, ma entro la fine del decennio probabilmente consumeranno dal 3 al 4%, raddoppiando le loro emissioni di CO2. Goldman Sachs segnala che negli Stati Uniti saranno necessari investimenti per circa 50 miliardi di dollari per aggiungere capacità di produzione di energia per far fronte all’appetito energetico dei data center.

In Europa, sempre secondo l’analisi di Goldman Sachs, la crescente elettrificazione delle attività e l’espansione dei data center potrebbero far crescere il fabbisogno energetico del 40% o più entro il 2033. Entro il 2030, si prevede che la fame di energia di questi data center sarà pari all’intero consumo annuale di Portogallo, Grecia e Paesi Bassi messi insieme. Per stare al passo, la rete elettrica europea avrà bisogno di investimenti per circa 1,6 miliardi di euro nel corso dei prossimi anni.

Queste sono le stime e le previsioni degli esperti, ma ci sono già dei dati molto concreti su cui ragionare. Google e Microsoft hanno pubblicato due confessioni energetiche discrete, poco pubblicizzate, ma molto importanti.

---

Ai primi di luglio 2024, Google ha messo online il suo nuovo rapporto sulla sostenibilità delle proprie attività. A pagina 31 di questo rapporto si legge un dato molto significativo: l’anno scorso le sue emissioni di gas serra sono aumentate del 48% rispetto al 2019 principalmente a causa degli aumenti dei consumi di energia dei data center e delle emissioni della catena di approvvigionamento”, scrive il rapporto, aggiungendo che “man mano che integriamo ulteriormente l’IA nei nostri prodotti, ridurre le emissioni potrebbe essere impegnativo a causa dei crescenti fabbisogni energetici dovuti alla maggiore intensità dei calcoli legati all’IA” [“In 2023, our total GHG emissions were 14.3 million tCO2e, representing a 13% year-over-year increase and a 48% increase compared to our 2019 target base year. [...] As we further integrate AI into our products, reducing emissions may be challenging due to increasing energy demands from the greater intensity of AI compute, and the emissions associated with the expected increases in our technical infrastructure investment.”].

Fin dal 2007, Google aveva dichiarato ogni anno che stava mantenendo una cosiddetta carbon neutrality operativa, ossia stava compensando le proprie emissioni climalteranti in modo da avere un impatto climatico sostanzialmente nullo. Ma già nella versione 2023 di questo rapporto ha dichiarato invece che non è più così, anche se ambisce a tornare alla neutralità entro il 2030.

Anche Microsoft ammette che l’intelligenza artificiale sta pesando sui suoi sforzi di sostenibilità. Nel suo rapporto apposito, l’azienda scrive che le sue emissioni sono aumentate del 29% rispetto al 2020 a causa della costruzione di nuovi data center, concepiti e ottimizzati specificamente per il carico di lavoro dell’intelligenza artificiale.

E a proposito di costruzione di data center, Bloomberg fa notare che il loro numero è raddoppiato rispetto a nove anni fa: erano 3600 nel 2015, oggi sono oltre 7000, e il loro consumo stimato di energia elettrica equivale a quello di tutta l’Italia.

Distillando questa pioggia di numeri si ottiene un elisir molto amaro: l’attuale passione mondiale per l’uso onnipresente dell’intelligenza artificiale ha un costo energetico e un impatto ambientale poco visibili, ma molto reali, che vanno contro l’esigenza di contenere i consumi per ridurre gli effetti climatici. È facile vedere proteste molto vistose contro i voli in aereo, per esempio, e c’è una tendenza diffusa a rinunciare a volare come scelta di tutela dell’ambiente. Sarebbe ironico se poi chi fa questi gesti passasse la giornata a trastullarsi con ChatGPT perché non si rende conto di quanto consumo energetico ci stia dietro.

Per fare un paragone concreto e facile da ricordare, se quei 2,9 wattora necessari per una singola richiesta a ChatGPT venissero consumati attingendo alla batteria del vostro smartphone, invece che a qualche datacenter dall’altra parte del mondo, il vostro telefonino sarebbe completamente scarico dopo soltanto quattro domande. Se usaste delle normali batterie stilo, ne dovreste buttare via una ogni due domande.

---

Ognuno di noi può fare la propria parte per contenere questo appetito energetico smisurato, semplicemente scegliendo di non usare servizi basati sull’intelligenza artificiale remota se non è strettamente indispensabile. Ma esiste anche un altro modo per usare l’intelligenza artificiale, che consuma molto, molto meno: si chiama tiny AI, ossia microintelligenza artificiale locale [locally hosted tiny AI].

Si tratta di software di IA che si installano e funzionano su computer molto meno potenti ed energivori di quelli usati dalle grandi aziende informatiche, o addirittura si installano sugli smartphone, e lavorano senza prosciugarne la batteria dopo quattro domande. Hanno nomi come Koala, Alpaca, Llama, H2O-Danube, e sono in grado di generare testi o tradurli, di rispondere a domande su vari temi, di automatizzare la scrittura di un documento, di trascrivere una registrazione o di riconoscere una persona, consumando molta meno energia delle intelligenze artificiali online.

Per esempio, una microintelligenza artificiale può essere installata a bordo di una telecamera di sorveglianza, su un componente elettronico che costa meno di un dollaro e ha un consumo energetico trascurabile: meno dell’energia necessaria per trasmettere la sua immagine a un datacenter remoto tramite la rete telefonica cellulare.

Nella tiny AI, l’elaborazione avviene localmente, sul dispositivo dell’utente, e quindi non ci sono problemi di privacy: i dati restano dove sono e non vengono affidati a nessuno. Bisogna però cambiare modo di pensare e di operare: per tornare all’esempio della telecamera, invece di inviare a qualche datacenter le immagini grezze ricevute dalla telecamera e farle elaborare per poi ricevere il risultato, la tiny AI le elabora sul posto, direttamente a bordo della telecamera, e non le manda a nessuno: se rileva qualcosa di interessante, trasmette al suo proprietario semplicemente l’avviso, non l’intera immagine, con un ulteriore risparmio energetico.

Non si tratta di alternative teoriche: queste microintelligenze sono già in uso, per esempio, negli occhiali smart dotati di riconoscimento vocale e riconoscimento delle immagini. Siccome devono funzionare sempre, anche quando non c’è connessione a Internet, e dispongono di spazi limitatissimi per le batterie, questi oggetti devono per forza di cose ricorrere a un’intelligenza ultracompatta e locale.

Ma allora perché le grandi aziende non usano questa soluzione dappertutto, invece di costruire immensi datacenter? Per due motivi principali. Il primo è tecnico: queste microintelligenze sono brave a fare una sola cosa ciascuna, mentre servizi come Google Gemini o ChatGPT sono in grado di rispondere a richieste di molti tipi differenti e più complesse, che hanno bisogno di attingere a immense quantità di dati. Ma le richieste tipiche fatte dagli utenti a un’intelligenza artificiale sono in gran parte semplici, e potrebbero benissimo essere gestite da una tiny AI. Troppo spesso, insomma, si impugna un martello per schiacciare una zanzara.

Il secondo motivo è poco tecnico e molto commerciale. Se gli utenti si attrezzano con una microintelligenza propria, che oltretutto spesso è gratuita da scaricare e installare, crolla tutto il modello di business attuale, basato sull’idea di convincerci che pagare un abbonamento mensile per avere servizi basati sull’intelligenza artificiale remota sia l’unico modello commerciale possibile.

La scelta, insomma, sta a noi: o diventare semplici cliccatori di app chiavi in mano, che consumano quantità esagerate di energia e creano una dipendenza molto redditizia per le aziende, oppure rimboccarsi un pochino le maniche informatiche e scoprire come attrezzarsi con un’intelligenza artificiale locale, personale, che fa quello che vogliamo noi e non va a raccontare a nessuno i nostri fatti personali. E come bonus non trascurabile, riduce anche il nostro impatto globale su questo fragile pianeta.



Fonti aggiuntive: Ultra-Efficient On-Device Object Detection on AI-Integrated Smart Glasses with TinyissimoYOLO, Arxiv.org, 2023; Tiny VLMs bring AI text plus image vision to the edge, TeachHQ.com, 2024; Tiny AI is the Future of AI, AIBusiness, 2024; The Surprising Rise of “Tiny AI”, Medium, 2024; I test AI chatbots for a living and these are the best ChatGPT alternatives, Tom’s Guide, 2024.

2024/08/26

Terremoto su Telegram, arrestato in Francia Pavel Durov

Avete probabilmente già saputo dell’arresto di Pavel Durov, fondatore e CEO di Telegram, sabato scorso all’aeroporto francese di Le Bourget dove era atterrato con il suo jet privato. La notizia, riportata da quasi tutti i media del mondo, si basa su informazioni dell’emittente francese TF1, secondo la quale l’arresto sarebbe legato alla mancanza di moderazione di Telegram e all’assenza di collaborazione con le forze dell’ordine di qualunque paese, che renderebbe Durov complice dello spaccio di stupefacenti, del riciclaggio di denaro e della condivisione di immagini di abusi sessuali su minori che avvengono su Telegram.

Su X, Telegram (l’azienda) ha dichiarato di essere “in attesa di una pronta risoluzione di questa situazione” e che “è assurdo affermare che una piattaforma o il suo proprietario sono responsabili per gli abusi di quella piattaforma”.

Gli abusi in questione avvengono anche su altri social network, anche sotto la protezione di una crittografia end-to-end che Telegram, va ricordato, non ha nelle chat normali ma solo nelle chat segrete; la differenza rispetto a Telegram è che gli altri social network almeno formalmente collaborano con le richieste delle forze di polizia (anche se io e altri abbiamo segnalato ripetutamente, per esempio a Instagram, la pubblicazione di immagini illegali di minori e siamo stati rassicurati che le immagini erano “conformi agli standard della comunità”).

Moderare 900 milioni di utenti, almeno nelle chat normali che può leggere o in quelle segrete che potrebbero essergli segnalate da terzi, sarebbe possibile ma richiederebbe un numero di addetti che Telegram non ha. Durov ha dichiarato, in un’intervista recente a Tucker Carlson, di avere in tutto “circa 30 ingegneri [software]” alle sue dirette dipendenze. 

E comunque Telegram dichiara apertamente nelle sue FAQ di non aver nessuna intenzione di fare da moderatore: “Tutte le chat e i gruppi di Telegram sono territorio privato dei loro rispettivi partecipanti. Non eseguiamo alcuna richiesta [di eliminazione di di contenuti illegali] relativa ad esse [...] Ad oggi, abbiamo divulgato 0 byte di dati a terzi, inclusi i governi [...] Mentre blocchiamo bot e canali legati al terrorismo (ad esempio legati all' ISIS), non bloccheremo nessuno che esprime pacificamente altre opinioni.”

Va ricordato che Telegram è, per i cittadini russi, uno dei pochissimi canali attraverso i quali possono ricevere informazioni non filtrate dalla censura governativa, e questo è possibile grazie alla struttura tecnica e legale (una serie di scatole cinesi di aziende sparse per il mondo) di Telegram. Durov ha lasciato la Russia proprio per non dover cedere al governo i dati dei cittadini raccolti dalla sua piattaforma precedente, Vkontakte, una sorta di Facebook nazionale, e censurarla. A modo suo, ha dei princìpi molto saldi: non collaborare con nessuna autorità, perché chi per un certo governo è un sovversivo per un altro governo è un dissidente, e chi è considerato terrorista da una parte è visto come combattente per la libertà dall’altra.

Ne ho parlato brevemente al Telegiornale della RSI ieri sera (link diretto): preciso che “i radar” sono gli autovelox in italiano ticinese.

Fonti aggiuntive: RSI, TechCrunch, TechCrunch, Ars Technica, ANSA.

2024/08/22

Podcast RSI - Google blocca l’adblocker che blocca gli spot; iPhone, arrivano gli app store alternativi, ma solo in UE

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Vi piacciono gli adblocker? Quelle app che bloccano le pubblicità e rendono così fluida e veloce l’esplorazione dei siti Web, senza continue interruzioni? O state pensando di installarne uno perché avete visto che gli altri navigano beatamente senza spot? Beh, se adoperate o state valutando di installare uno degli adblocker più popolari, uBlock Origin, c’è una novità importante che vi riguarda: Google sta per bloccarlo sul proprio browser Chrome. Ma c’è un modo per risolvere il problema.

Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e vi racconto anche cosa succede realmente con gli iPhone ora che l’App Store di Apple non è più l’unico store per le app per questi telefoni e quindi aziende come Epic Games, quella di Fortnite, sono finalmente libere di offrire i propri prodotti senza dover pagare il 30% di dazio ad Apple, anche se lo sono solo a certe condizioni complicate. Vediamole insieme. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Google sta per bloccare l’adblocker uBlock Origin

La pubblicità nei siti a volte è talmente invadente, specialmente sugli schermi relativamente piccoli degli smartphone, che diventa impossibile leggere i contenuti perché sono completamente coperti da banner, pop-up e tutte le altre forme di interruzione inventate in questi anni dai pubblicitari. Molti utenti si difendono da quest’invasione di réclame adottando una misura drastica: un adblocker, ossia un’app che si aggiunge al proprio browser sul computer, sul tablet o sul telefono e blocca le pubblicità.

Uno degli adblocker più popolari, con decine di milioni di utenti, è uBlock Origin, un’app gratuita disponibile per tutti i principali browser, come per esempio Edge, Firefox, Chrome, Opera e Safari. È scaricabile presso Ublockorigin.com ed è manutenuto ormai da un decennio dal suo creatore, Raymond Hill, che non solo offre gratuitamente questo software ma rifiuta esplicitamente qualunque donazione o sponsorizzazione. Questa sua fiera indipendenza, rimasta intatta mentre altri adblocker sono scesi a compromessi lasciando passare le “pubblicità amiche”, lo ha fatto diventare estremamente popolare.

Il sito di Ublock Origin.

Ovviamente i pubblicitari, e i siti che si mantengono tramite le pubblicità, non vedono di buon occhio questo successo degli adblocker, e quindi c’è una rincorsa tecnologica continua fra chi crea pubblicità che eludono gli ablocker in modi sempre nuovi e chi crea adblocker che cercano di bloccare anche quei nuovi modi.

Anche Google vive di pubblicità, e quindi in questa rincorsa non è affatto neutrale: se le pubblicità che Google vende non vengono viste dagli utenti, gli incassi calano. E infatti il suo browser Chrome, uno dei più usati al mondo, sta per bloccare l’adblocker uBlock Origin. I trentacinque milioni di utenti che lo adoperano su Chrome, stando perlomeno ai dati presenti sulla sua pagina nel Chrome Web Store [screenshot qui sotto], si troveranno quindi presto orfani, perché è in arrivo un aggiornamento importante della tecnologia di supporto alle estensioni in Chrome, fatto formalmente per aumentarne la sicurezza, l’efficienza e la conformità agli standard, ma questo aggiornamento ha anche un effetto collaterale non trascurabile: renderà uBlock Origin incompatibile con le prossime versioni di Chrome.

Ublock Origin nel Chrome Web Store.

Niente panico: al momento attuale uBlock Origin funziona ancora su Chrome, ma nelle prossime versioni del browser di Google verrà disabilitato automaticamente. Per un certo periodo, gli utenti avranno la possibilità di riattivarlo manualmente, ma poi sparirà anche questa opzione.

uBlock Origin continuerà a funzionare sugli altri browser, per cui un primo rimedio al problema per i suoi milioni di utenti è cambiare browser, passando per esempio a Firefox. Ma questo non è facile per gli utenti poco esperti e rischia di introdurre incompatibilità e disagi, perché la popolarità di Chrome spinge i creatori dei siti a realizzare siti Web che funzionano bene soltanto con Chrome, in una ripetizione distorta della celebre guerra dei browser che aveva visto protagonista Internet Explorer di Microsoft contro Netscape alla fine degli anni Novanta.

Raymond Hill, il creatore di uBlock Origin, non è rimasto con le mani in mano. Vista la tempesta in arrivo, ha già creato e reso disponibile, sempre gratuitamente, un nuovo adblocker che è compatibile con le prossime versioni di Google Chrome. Si chiama uBlock Origin Lite, ed è già disponibile sul Chrome Web Store. Trovate i link per scaricarlo su Disinformatico.info. Per ragioni tecniche non è potente ed efficace come il suo predecessore, per cui Raymond Hill non lo propone come aggiornamento automatico ma lo raccomanda come alternativa.

Ublock Origin Lite nel Chrome Web Store.

Se siete affezionati alla navigazione senza pubblicità grazie a uBlock Origin, insomma, avete due possibilità: cambiare browser oppure passare alla versione Lite di uBlock Origin, che è già stata installata in questo momento da circa trecentomila utenti.

In tutto questo non va dimenticato che molti dei siti e dei servizi più usati di Internet si mantengono grazie ai ricavi pubblicitari che gli adblocker impediscono, per cui se usate un adblocker di qualunque tipo vale la pena di dedicare qualche minuto ad autorizzare le pubblicità dei siti che vi piacciono e che volete sostenere, lasciando bloccati tutti gli altri, anche come misura di difesa contro i siti di fake news nei quali è facile incappare e che si mantengono con la pubblicità, per cui a loro non interessa che crediate o meno a quello che scrivono: l’importante per loro è che vediate le loro inserzioni pubblicitarie. Ed è così che paradossalmente gli adblocker diventano uno strumento contro la disinformazione e i truffatori.


Fonti aggiuntive: PC World, WindowsCentral.

iPhone, arrivano gli app store alternativi. Ma solo in UE

Da quando è arrivato l’iPhone, una delle sue caratteristiche centrali è stata quella di avere un unico fornitore di app, cioè l’App Store della stessa Apple. Sugli smartphone delle altre marche, con altri sistemi operativi come per esempio Android, l’utente è sempre stato libero di procurarsi e installare app di qualunque provenienza con poche semplici operazioni, mentre Apple ha scelto la via del monopolio, aggirabile solo con procedure decisamente troppo complicate per l’utente medio.

Oggi, dopo sedici anni dal suo debutto nel 2008, l’App Store di Apple non è più l’unica fonte di app disponibile agli utenti degli smartphone di questa marca: debuttano infatti gli app store alternativi per gli iPhone. Ma solo per chi si trova nell’Unione Europea. Una volta tanto, una novità arriva prima in Europa che negli Stati Uniti, ma non scalpitate, le cose non sono così semplici come possono sembrare a prima vista.

La novità è merito delle norme europee sulla concorrenza, specificamente del Digital Markets Act o DMA, e delle azioni legali avviate da aziende come Spotify, Airbnb e in particolare Epic Games, la casa produttrice di Fortnite, aziende che contestavano non solo il regime di sostanziale monopolio ma anche il fatto che Apple, come Google, chiede il 30% dei ricavi delle app: una percentuale ritenuta troppo esosa da molti sviluppatori di app.

A questi costi si aggiungeva il fatto che alcuni tipi di app non erano disponibili nell’App Store di Apple per scelta politica, per esempio su pressioni di governi come quello cinese, indiano o russo, oppure per decisione spesso arbitraria di Apple, come per esempio nel caso degli emulatori di altri sistemi operativi (come il DOS) [The Verge], o nel caso dei browser alternativi (ammessi solo se usano lo stesso motore interno WebKit di Safari [The Verge]), oppure dei contenuti anche solo vagamente relativi alla sessualità, come nella vicenda emblematica dell’app che offriva un adattamento a fumetti dell’Ulisse di Joyce, che era stata respinta per aver osato mostrare dei genitali maschili appena accennati da un tratto di matita.

Apple ha giustificato finora queste restrizioni parlando di esigenze di qualità e di sicurezza, e in effetti i casi di app pericolose giunte nel suo App Store sono limitatissimi rispetto al fiume di malware e di spyware che si incontra facilmente su Google Play per il mondo Android, ma non sempre queste giustificazioni sono state documentate; l’argomentazione generale di Apple è stata che solo Apple era in grado di fornire una user experience buona, sicura e felice. In ogni caso, che ad Apple piaccia o no, l’Unione Europea ha disposto che gli utenti di iPhone e iPad abbiano la facoltà di procurarsi app anche attraverso app store alternativi.

E così oggi un utente Apple che si trovi in Unione Europea può rivolgersi ad app store come AltStore, Setapp, Epic Games, Aptoide e altri, trovandovi app che non esistono nello store di Apple, soprattutto nel settore dei giochi e degli emulatori.

Una cosa inimmaginabile qualche anno fa: Aptoide per iOS.

Ma la procedura non è affatto semplice. Mentre per usare l’App Store di Apple l’utente non deve fare nulla, per usare gli store alternativi deve trovarsi materialmente nel territorio dell’Unione Europea, e quindi per esempio la Svizzera e il Regno Unito sono esclusi; deve impostare il paese o l’area geografica del proprio ID Apple su uno dei paesi o delle aree geografiche dell’Unione Europea, e deve aver installato iOS 17.4 o versioni successive. E una volta fatto tutto questo, deve poi andare al sito dello store alternativo ed eseguire tutta una serie di operazioni prima di poter arrivare finalmente alle app vere e proprie. La cosa è talmente complessa che Epic Games ha addirittura pubblicato su YouTube un video che spiega la procedura.

Lo store della Epic Games.

La faccenda si complica ulteriormente se per caso l’utente esce per qualunque motivo dall’Unione Europea: gli aggiornamenti delle app degli store alternativi saranno ammessi solo per 30 giorni, e ci sono anche altre limitazioni, elencate in un tediosissimo documento pubblicato da Apple che trovate linkato su Disinformatico.info.

[il documento di Apple elenca in dettaglio i paesi e le aree geografiche compatibili: Austria, Belgio, Bulgaria, Croazia, Cipro, Repubblica Ceca, Danimarca, Estonia, Finlandia (incluse Isole Åland), Francia (incluse Guyana francese, Guadalupa, Martinica, Mayotte, Reunion, Saint Martin), Germania, Grecia, Ungheria, Irlanda, Italia, Lettonia, Lituania, Lussemburgo, Malta, Paesi Bassi, Polonia, Portogallo (incluse Azzorre), Madeira, Romania, Slovacchia, Slovenia, Spagna (incluse Isole Canarie), Svezia]

All’atto pratico, è difficile che questa apertura forzata e controvoglia dell’App Store interessi a chi non è particolarmente esperto o appassionato, ma perlomeno stabilisce il principio che a differenza di quello che avviene altrove, nell’Unione Europea le grandi aziende del software non sono sempre in grado di fare il bello e il cattivo tempo.


Fonti aggiuntive: TechCrunch, IGNThe Verge, TechCrunch

2024/08/17

Una bizzarra mail da una Questura italiana

A metà giugno scorso ho ricevuto una mail molto strana: una richiesta di informazioni apparentemente proveniente da una Questura italiana. La mail, non certificata, è arrivata sulla mia normale casella Gmail. Da una Questura mi sarei aspettato perlomeno una PEC. Per questo motivo, e per via del suo contenuto, ho pensato che si trattasse di una burla o di un tentativo di raggiro.

La mail, infatti, mi chiedeva di fornire le generalità complete, il luogo di residenza e un recapito telefonico del direttore responsabile della testata online “Il Disinformatico” e faceva il mio nome.

La motivazione, stando al testo della mail, era un mio articoletto di ottobre 2023, questo: “Marcello Foa dà una lezione di giornalismo. Ma alla rovescia”, nel quale avevo riferito concisamente la vicenda delle accuse infondate di Foa all’amico e collega David Puente. 

Foa, riprendendo un articolo di Giuseppe Vatinno su Affaritaliani.it, aveva affermato molto pubblicamente che Puente non fosse iscritto all’Ordine dei Giornalisti (i dettagli sono qui) e quindi fosse vicedirettore abusivo di Open. Ma in realtà aveva semplicemente cercato male nei registri dell’Ordine (nei quali Puente c’è eccome) ed era saltato a una conclusione perlomeno azzardata.

Nella mail apparentemente proveniente dalla Questura, inoltre, mi si chiedeva di specificare il luogo di inserimento online del mio articoletto.

Ho risposto dicendo che per qualunque richiesta di informazioni o comunicazione di natura legale o confidenziale andava usata l’apposita PEC, paolo.attivissimo@pec.net

Con mia sorpresa, il giorno dopo mi è davvero arrivata una PEC dalla Questura in questione, con lo stesso contenuto. Ho risposto, sempre via PEC, dando le mie generalità e specificando di essere giornalista e residente in Svizzera e che il luogo di inserimento online era il mio indirizzo di casa (presumendo che intendessero il luogo in cui mi trovavo quando ho scritto l’articolo, non l’ubicazione del server di Google che ospita l’articolo).

Qualche giorno dopo mi è arrivata un’altra PEC dalla stessa Questura, nella quale mi si chiedeva di contattarla telefonicamente per ulteriori chiarimenti. Cosa che ho fatto, ottenendo una conversazione piuttosto bizzarra.

Mi è stato chiesto se avevo un indirizzo o un domicilio in Italia. No, ho risposto, abito in Svizzera, come ho scritto, e ci abito da vent’anni. Sono anche diventato cittadino svizzero. 

Ma almeno vengo qualche volta in Italia? Sì, ma come turista. Non ho un’abitazione in Italia.

Ma non vado mai a Roma? A volte, ma non ho in programma di andarci se non ho un ottimo motivo per farlo.

Ma davvero non ha una casa in Italia? Ehm, no, come ho già detto. Vivo in Svizzera. Lavoro in Svizzera. I miei figli sono cresciuti in Svizzera. Sono cittadino svizzero. Perché mai dovrei avere una casa in Italia?

Insomma, a quanto mi è parso di capire, tutte queste strane domande erano mirate a vedere se era possibile eleggere un mio domicilio in Italia per qualcosa che ha a che fare con quel mio breve resoconto, forse una presunta diffamazione a mezzo stampa.

Staremo a vedere. Nel frattempo, volevo condividere con voi questo momento di ordinaria burocrazia.

2024/08/15

Podcast RSI - Emily Pellegrini, l’influencer virtuale che virtuale non era; deepfake per una truffa da 25 milioni di dollari

logo del Disinformatico

ALLERTA SPOILER: Questo è il testo di accompagnamento al podcast Il Disinformatico della Radiotelevisione Svizzera che uscirà questo venerdì presso www.rsi.ch/ildisinformatico.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Benvenuti alla puntata del 16 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e questa settimana vi porto due storie, e due notizie, che sembrano scollegate e appartenenti a due mondi molto distanti, ma hanno in realtà in comune un aspetto molto importante.

La prima storia riguarda una delle più pubblicizzate influencer virtuali, Emily Pellegrini, annunciata dai giornali di mezzo mondo come un trionfo dell’intelligenza artificiale, così attraente e realistica che viene contattata da celebri calciatori che la vogliono incontrare a cena e da ricchi imprenditori che le offrono vacanze di lusso pur di conoscerla, credendo che sia una persona reale, e accumula centinaia di migliaia di follower su Instagram. Ma oggi tutte le immagini che l’avevano resa celebre sui social sono scomparse.

La seconda storia riguarda invece una truffa da 25 milioni di dollari ai danni di una multinazionale, messa a segno tramite una videoconferenza in cui il direttore finanziario sarebbe stato simulato dai criminali, in voce e in video e in tempo reale, usando anche qui l’intelligenza artificiale così bene da ingannare persino i suoi stessi dipendenti.

Ma non è l’intelligenza artificiale l’aspetto che accomuna queste storie. È qualcosa di ben poco artificiale e purtroppo molto umano.

[SIGLA di apertura]

Siamo a fine settembre del 2023. Un’eternità di tempo fa, per i ritmi dello sviluppo frenetico dell’intelligenza artificiale. Su un sito per adulti, Fanvue, e su Instagram iniziano a comparire le foto sexy di Emily Pellegrini [instagram.com/emilypellegrini], una modella di 23 anni che vive a Los Angeles e fa l’influencer. Ma si tratta di una influencer particolare, perché è generata con l’intelligenza artificiale, anche se nelle foto che pubblica sembra una persona in carne e ossa.

Una delle “foto” di Emily Pellegrini. Notate i grattacieli completamente deformati sullo sfondo e l’incoerenza delle linee della piattaforma sulla quale si trova la persona raffigurata, segni tipici di immagini generate maldestramente con software di intelligenza artificiale.

Sei settimane dopo, l’11 novembre, Emily Pellegrini ha già 81.000 follower su Instagram [New York Post]. Ai primi di gennaio ne ha 175.000 [Corriere del Ticino], a metà gennaio sono già 240.000 [NZZ], e ne parlano i media di tutto il mondo [Daily Mail, ripetutamente; Fortune, Dagospia, Repubblica, Stern, Welt.de, Radio Sampaio], dicendo che il suo aspetto procace e fotorealistico ha tratto in inganno molti uomini “ricchi, potenti e di successo”, dice per esempio il Daily Mail britannico, aggiungendo che su Instagram la contattano “persone veramente famose, come calciatori, miliardari, campioni di arti marziali miste e tennisti” che “credono che sia reale” e “la invitano a Dubai per incontrarla e mangiare nei migliori ristoranti”. Una delle celebrità sedotte da Emily Pellegrini, scrive sempre il Daily Mail, è un imprecisato conoscente di Cristiano Ronaldo; un altro è una star del calcio tedesco di cui non viene fatto il nome.

Andamento della popolarità della stringa di testo “Emily Pellegrini” da settembre 2023 a oggi, secondo Google Trends.

Moltissime testate in tutto il mondo riportano fedelmente questi dettagli e non perdono l’occasione di pubblicare molte foto delle grazie abbondanti dell’influencer virtuale, ma c’è un piccolo problema: tutte queste presunte conquiste di Emily Pellegrini sono riferite da una sola fonte, il suo creatore, che fra l’altro vuole restare anonimo, e sono descritte in modo estremamente vago: nessun nome, ma solo frasi come “uno dei volti famosi, di cui non viene fatto il nome e che l’ha contattata, a quanto pare conosce Cristiano Ronaldo” [“One unnamed famous face who contact [sic] her allegedly knew Cristiano Ronaldo, the creator claimed”]

Che senso ha precisare che questo anonimo fan conosce Cristiano Ronaldo? Non fornisce nessuna informazione reale. Però permette di citare un nome famoso e associarlo a questa influencer per farla brillare di luce riflessa nella mente del lettore, che magari è distratto perché l’occhio gli sta cadendo altrove.

Questo espediente autopromozionale funziona, perché Emily Pellegrini viene citata dai media di mezzo pianeta come l’influencer che “fa innamorare i vip”, come titola Il Mattino, o “ha fatto innamorare calciatori e vip di tutto il mondo”, come scrive Repubblica, per citare giusto qualche esempio italofono. Ma di questo innamoramento collettivo non c’è la minima conferma. Ci sono solo le dichiarazioni straordinariamente vaghe del suo creatore senza nome.

Questo anonimo creatore della influencer virtuale racconta anche di aver “lavorato 14-16 ore al giorno” per riuscire a creare il volto, il corpo e i video di Emily Pellegrini con l’intelligenza artificiale. Ma anche qui qualcosa non quadra, perché a fine gennaio 2024 emerge un dato: alcune delle immagini di Emily Pellegrini, soprattutto quelle più realistiche, sono realistiche non per qualche rara maestria nell’uso dei software di intelligenza artificiale, ma perché sono semplicemente foto e video di donne reali, come per esempio quelle della modella Ella Cervetto (www.instagram.com/ellacervetto/), sfruttate senza il loro consenso [Radio France; Abc.net.au, con esempi; Fanpage.it], sostituendo digitalmente il loro volto con un volto sintetico e tenendo tutto il resto del corpo intatto. In altre parole, un banale deepfake come tanti, fatto oltretutto a scrocco.

Le pose e le movenze così realistiche di Emily Pellegrini non sono generate dal software: sono prese di peso dai video reali di modelle reali. Una chiara violazione del copyright e uno sfruttamento spudorato del lavoro altrui.

---

Oggi il profilo Instagram di Emily Pellegrini [www.instagram.com/emilypellegrini] è praticamente vuoto. Tutte le foto sono scomparse. Restano solo 12 post, nei quali un uomo che si fa chiamare “Professor Ep” e dice di essere il creatore della modella virtuale – che in realtà tanto virtuale non era – propone un corso, naturalmente a pagamento, per insegnare agli altri a fare soldi creando modelle virtuali. Nessun accenno al fatto che l’insegnante ha usato i video e la fatica degli altri e ha adoperato  solo in parte l’intelligenza artificiale per guadagnare, dice lui, oltre un milione di dollari.

Lo stato attuale dell’account Instagram di Emily Pellegrini.

Fra l'altro, il corso del sedicente professore, che costava inizialmente mille dollari, ora è svenduto a circa duecento.

La pubblicità del corso promosso sull’account Instagram di Emily Pellegrini.

Lasciando da parte un momento i ragionevoli dubbi sull’etica e la competenza dimostrate fin qui dal Professor Ep, se per caso state pensando di lanciarvi anche voi nel settore immaginando di fare soldi facilmente in questa versione 2024 della febbre per il mining domestico delle criptovalute, beh, pensateci due volte.

I dati indicano infatti che fare soldi esclusivamente generando immagini di modelle virtuali è cosa assai rara. Ci sono alcune superstar del settore che guadagnano discretamente, ma il grosso degli aspiranti creatori e delle aspiranti creatrici fa la fame. Il mercato è saturo di gente che ci sta provando e fallendo.

Grazie ad alcune persone esperte del settore, ho constatato di persona che su piattaforme che promettono grandi guadagni tramite la vendita di immagini generate con l’intelligenza artificiale, come la piattaforma usata dal creatore di Emily Pellegrini, è sufficiente incassare trecento dollari nell’arco di un mese per trovarsi nel discutibile Olimpo del settore, ossia nella fascia del 10% dei creatori che guadagnano di più. Il restante 90%, in altre parole, guadagna di meno.

Gli incassi e il piazzamento di una influencer virtuale su Fanvue.

Molte influencer virtuali che nei mesi scorsi erano state segnalate dai media come le avanguardie emergenti di un nuovo fenomeno oggi non rendono visibile il numero dei like o dei follower, o addirittura questi dati vengono nascosti dalla piattaforma stessa, per non far vedere che non le sta seguendo praticamente nessuno e che i guadagni promessi sono solo un miraggio per molti.

Quelli che guadagnano davvero, invece, sono i fornitori dei servizi e dell’hardware necessario per generare queste immagini sintetiche, proprio come è avvenuto per le criptovalute. Quando si scatena una corsa all’oro, conviene sempre essere venditori di picconi.

Fonti aggiuntive e ulteriori dettagli:

---

La seconda storia di questo podcast arriva da Hong Kong. Siamo a febbraio del 2024, e scoppia la notizia di una truffa da 25 milioni di dollari ai danni di una multinazionale, effettuata con la tecnica del deepfake, la stessa usata nella storia precedente con altri scopi.

Un operatore finanziario che lavora a Hong Kong si sarebbe fatto sottrarre questa ragguardevolissima cifra perché dei truffatori avrebbero creato una versione sintetica del suo direttore finanziario, che stava a Londra, e l’avrebbero usata per impersonare questo direttore durante una videoconferenza di gruppo, nella quale anche gli altri partecipanti, colleghi dell’operatore, sarebbero stati simulati sempre con l’intelligenza artificiale, perlomeno stando alle dichiarazioni attribuite alla polizia di Hong Kong [Rthk.hk, con video del portavoce della polizia, Baron Chan; The Register].

Dato che tutti i partecipanti alla videochiamata sembravano reali e avevano le sembianze di colleghi, quando l’operatore ha ricevuto l’ordine di effettuare quindici transazioni verso cinque conti bancari locali, per un totale appunto di 25 milioni di dollari, ha eseguito le istruzioni, e i soldi hanno preso il volo.

L’ipotesi che viene fatta dalla polizia è che i truffatori abbiano scaricato dei video dei vari colleghi e li abbiano usati per addestrare un’intelligenza artificiale ad aggiungere ai video una voce sintetica ma credibile. Il malcapitato operatore si sarebbe accorto del raggiro solo quando ha chiamato la sede centrale dell’azienda per un controllo.

La notizia viene accolta con un certo scetticismo da molti addetti alla sicurezza informatica. Già simulare un singolo volto e una singola voce in maniera perfettamente realistica è piuttosto impegnativo, figuriamoci simularne due, tre o più contemporaneamente. La potenza di calcolo necessaria sarebbe formidabile. Non c’è per caso qualche altra spiegazione a quello che è successo?

[The Standard presenta una ricostruzione un po’ diversa degli eventi: solo il direttore finanziario sarebbe stato simulato e gli altri quattro o sei partecipanti sarebbero stati reali. “An employee of a multinational company received a message from the scammer, who claimed to be the "Chief Financial Officer" of the London head office, asking to join an encrypted virtual meeting with four to six staffers. The victim recalled that the "CFO" spent most of the time giving investment instructions, asking him to transfer funds to different accounts, and ending the meeting in a hurry. He found that he was cheated after he made 15 transactions totaling HK$200 million to five local accounts within a week and reported to the police. It was discovered that the speech of the "CFO" was only a virtual video generated by the scammer through deepfake. Police said other employees of the same company were also instructed to attend the meeting.”]

Otto mesi dopo, cioè pochi giorni fa, un esperto di sicurezza, Brandon Kovacs, affascinato da quella truffa milionaria, ha dimostrato alla conferenza di hacking DEF CON che in realtà una videoconferenza nella quale tutti i partecipanti, tranne la vittima, sono in realtà delle simulazioni indistinguibili dagli originali è fattibile, ed è fattibile con apparecchiature piuttosto modeste e sicuramente alla portata economica di una banda di criminali che spera in un bottino di svariati milioni di dollari.

La parte più impegnativa di quest’impresa è procurarsi delle riprese video delle persone da simulare. Queste registrazioni servono per addestrare un’intelligenza artificiale su misura a generare un deepfake in tempo reale della persona specifica. Ma oggigiorno praticamente chiunque lavori in un’azienda ha ore e ore di riprese video che lo riguardano nel contesto ideale per addestrare un’intelligenza artificiale: le registrazioni delle videoconferenze di lavoro alle quali ha partecipato.

Kovacs ha messo alla prova quest’ipotesi: è possibile creare un clone video di qualcuno usando solo informazioni pubblicamente disponibili e software a sorgente aperto, cioè open source?

La risposta è sì: insieme a una collega, Alethe Denis, di cui aveva le registrazioni pubblicamente disponibili delle sue interviste, podcast e relazioni a conferenze pubbliche, ha addestrato un’intelligenza artificiale e si è procurato una fotocamera digitale reflex professionale, delle luci, una parrucca somigliante ai capelli della collega, un telo verde e del software, e ha usato il deepfake generato in tempo reale come segnale di ingresso del microfono e della telecamera per una sessione di Microsoft Teams, nella quale ha parlato con i figli della collega, spacciandosi per lei in voce e in video in diretta. I figli ci sono cascati completamente, e se un figlio non si accorge che sua mamma non è sua mamma, vuol dire che l’inganno è più che adeguato.

Creare un deepfake del genere, insomma, non è più un’impresa: il sito tecnico The Register nota che un software come DeepFaceLab, che permette di addestrare un modello per creare un deepfake di una persona specifica, è disponibile gratuitamente. Anche il software per l’addestramento della voce esiste in forma open source e gratuita: è il caso per esempio di RVC. E la scheda grafica sufficientemente potente da generare le immagini del volto simulato in tempo reale costa circa 1600 dollari.

In pratica, Kovacs ha creato un kit per deepfake pronto per l’uso [mini-demo su LinkedIn]. Un kit del genere moltiplicato per il numero dei partecipanti a una videoconferenza non è a buon mercato per noi comuni mortali, ma è sicuramente una spesa abbordabile per un gruppo di criminali se la speranza è usarlo per intascare illecitamente 25 milioni di dollari. E quindi l’ipotesi della polizia di Hong Kong è plausibile.

Non ci resta che seguire i consigli di questa stessa forza di polizia per prevenire questo nuovo tipo di attacco:

  • primo, avvisare che esiste, perché molti utenti non immaginano nemmeno che sia possibile;
  • secondo, non pensare che il numero dei partecipanti renda particolarmente difficile questo reato;
  • e terzo, abituare e abituarsi a confermare sempre le identità delle persone che vediamo in video facendo loro delle domande di cui solo loro possono sapere la risposta.

E così la demolizione della realtà fatta dall’intelligenza artificiale prosegue inesorabile in entrambe queste storie: non possiamo più fidarci di nessuna immagine, né fissa né in movimento, ma possiamo fare affidamento su una costante umana che non varia nel tempo: la capacità e la passione universale di trovare il modo di usare qualunque tecnologia per imbrogliare il prossimo.


Fonte aggiuntiva: Lights, camera, AI! Real-time deepfakes coming to DEF CONThe Register