Cerca nel blog

2024/06/14

Podcast RSI - Instagram, l’etichetta “Creato con IA” fa infuriare i fotografi veri; aggiornamento su Windows Recall

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Se siete fra i due miliardi e mezzo di utenti di Instagram, probabilmente avete notato che da qualche settimana alcune fotografie postate su questo social network sono accompagnate da una piccola dicitura: nella versione italiana, questa dicitura è “Creato con IA”, dove “IA” ovviamente sta per l’immancabile, onnipresente intelligenza artificiale.

Gli hater dell’intelligenza artificiale – sì, esistono e sono numerosi e anche inviperiti – vedono questa etichetta sulle fotografie di luoghi e persone pubblicate su Instagram e lasciano commenti livorosi in cui accusano chi le ha postate di essere un bugiardo, perché secondo loro l’etichetta dimostra che si tratta di falsi creati appunto con l’intelligenza artificiale. E gli autori delle foto in questione si sgolano, invano, cercando di dimostrare che le loro foto sono autentiche, scattate davvero sul luogo e con soggetti e persone reali. Niente da fare: l’etichetta “Creato con IA” li condanna. Fotografi professionisti celebri si vedono screditati di colpo da queste tre brevi parole.

Questa è la storia strana di una iniziativa di Meta, proprietaria di Instagram, partita con l’intento di fare chiarezza nel caos delle immagini sintetiche spacciate per vere che stanno intasando questo social network. Quell’intento si è trasformato in un autogol, che sta facendo infuriare i fotografi che avrebbe dovuto proteggere. E fra quei fotografi, e fra quegli accusati, potreste trovarvi anche voi.

Se volete saperne di più e conoscere come difendervi da questi nuovi hater, siete nel posto giusto: benvenuti! Questa è la puntata del 14 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Recall richiamato

Prima di tutto devo fare un aggiornamento a una delle notizie che ho segnalato nel podcast precedente, ossia l’introduzione in Windows 11 di un nuovo servizio, chiamato Recall, che in sostanza registra localmente tutto quello che passa sullo schermo, con ovvi problemi di privacy. Poco dopo la chiusura della puntata, Microsoft ha reagito al clamore mediatico prodotto dall’annuncio di Recall e ha risposto in parte alle preoccupazioni degli esperti, modificando il funzionamento del servizio.

Mentre prima Recall era attivo per impostazione predefinita e toccava all’utente scoprire come disattivarlo, d’ora in poi sarà attivato solo se l’utente accetterà la proposta di attivazione, che comparirà durante la configurazione iniziale del computer (The Verge). Restano ancora valide tutte le considerazioni di privacy e di sicurezza che sono state segnalate dagli esperti per chi decide di attivare Recall, ma perlomeno adesso è più facile e naturale per l’utente rifiutare questo servizio.

Colgo l’occasione per precisare anche un altro dettaglio importante: per il momento, Recall viene installato ed è disponibile soltanto sui computer di tipo Copilot+ dotati di processore ARM e processore neurale o NPU, che sono una decina di modelli di varie marche. Chi ha un computer meno recente di questi non si vedrà proporre l’attivazione di Recall. Almeno per ora, perché Microsoft ha dichiarato di voler fornire supporto anche per i computer con processori AMD e Intel, che sono i più diffusi. Staremo a vedere.

Instagram e l’etichetta “Creato con IA”

Da qualche settimana Instagram ha iniziato ad aggiungere automaticamente ai post una dicitura che avvisa gli utenti che un’immagine postata è stata creata usando prodotti basati sull’intelligenza artificiale. In italiano questa dicitura è “Creato con IA”.

Dall’account Instagram @candyrose_mc (link diretto al post).

L’intenzione di Meta era buona: etichettare chiaramente le immagini sintetiche generate con l’intelligenza artificiale, che ormai hanno raggiunto un livello di realismo tale da rendere molto difficile, se non impossibile, distinguere un’immagine sintetica da una fotografia reale.

La pubblicazione di immagini sintetiche fotorealistiche, senza avvisare esplicitamente che si tratta di qualcosa che è stato generato completamente da zero e non esiste nella realtà fisica, è infatti chiaramente ingannevole, specialmente quando l’immagine generata rappresenta una situazione plausibile nel mondo reale. Il rischio che i professionisti delle fake news usino i generatori di immagini basati sull’intelligenza artificiale per produrre immagini false di persone conosciute, allo scopo per esempio di ridicolizzarle o screditarle, è fin troppo evidente e ne esistono già molti casi documentati.

C’è anche il problema che i generatori di immagini finiscono per svilire il lavoro e la fatica dei fotografi professionisti, perché invece di comporre pazientemente la scena, mettere in posa il soggetto, regolare le luci e tutte le altre cose che un fotografo è costretto a fare fisicamente per ottenere una certa immagine, oggi si può ottenere un risultato più che paragonabile usando l’intelligenza artificiale, standosene comodamente al computer. Instagram è invaso, infatti, dalle foto di “modelle” che sono in realtà immagini generate dal computer, e le fotomodelle reali si vedono scavalcate da immagini sintetiche che possono essere fabbricate in una manciata di secondi, non si stancano, non invecchiano, non cambiano forme o peso e non hanno spese di trasferta o compensi da pretendere. E gran parte degli utenti (e anche dei committenti) non è in grado di accorgersi della differenza.

Etichettare le immagini sintetiche sembrebbe quindi un’ottima idea per difendere il professionismo dei fotografi e il lavoro di modelli e modelle in carne e ossa, e anche per contrastare le fake news; eppure i fotografi sono sul piede di guerra e pubblicano proteste indignate contro questa etichettatura.

L’etichetta che scredita

La ragione delle loro proteste è molto semplice: la “soluzione” escogitata da Meta sta etichettando come sintetiche, ossia false agli occhi del pubblico, anche le loro foto, quelle scattate con una fotocamera, inquadrando un soggetto fisico reale. L’etichetta “Creato con IA” sta insomma screditando il lavoro di moltissimi professionisti, ed è importante che chi usa Instagram sia ben consapevole che al momento attuale questa etichetta non vuol dire necessariamente che l’immagine sia stata generata da zero con l’intelligenza artificiale, e che viceversa la mancanza di questa etichetta non è una garanzia di autenticità.

Questa etichetta, infatti, viene applicata da Meta ai post su Instagram in due casi. Il primo è quello in cui chi posta un’immagine decide volontariamente di etichettarla come sintetica, usando la funzione apposita presente nell’app di Instagram [per esempio per evitare di incappare in sanzioni da parte di Meta]. Il secondo caso, quello più importante, è quello in cui Meta rileva in un’immagine sintetica la presenza di appositi indicatori, che vengono incorporati nell’immagine sotto forma di metadati dai programmi di generazione o di fotoritocco. Questi indicatori informano Meta che è stato fatto uso di intelligenza artificiale per elaborare l’immagine in questione.

Ma attenzione: l’etichetta “Creato con IA” viene applicata automaticamente da Meta non solo quando l’immagine è totalmente generata, ma anche quando una fotografia reale viene manipolata in qualunque modo, anche molto lievemente, usando software come Photoshop, che adoperano per alcuni strumenti l’intelligenza artificiale per produrre fotoritocchi sempre più rapidi e sofisticati.

Ovviamente c’è una differenza enorme fra un’immagine fotorealistica completamente generata al computer e una fotografia tradizionale alla quale è stato fatto un piccolo ritocco digitale per rimuovere, che so, un dettaglio antiestetico, eppure Meta mette tutto nel mucchio, perché in realtà non sta facendo alcun lavoro di analisi sofisticata delle immagini, per esempio per cercare di “capire” dal contenuto e dal contesto se sono sintetiche oppure no: sta semplicemente controllando se sono presenti o meno questi metadati. Se ci sono, mostra l’etichetta “Creato con IA”, e lo fa anche se il fotografo ha usato una vera fotocamera e ha inquadrato per esempio una modella reale, andando in un luogo reale, ma ha usato, anche in misura minima, uno degli strumenti di rifinitura di Photoshop basati sull’intelligenza artificiale, per esempio per rimuovere una minuscola sbavatura nel trucco o un granello di polvere che era finito sul sensore della fotocamera.

E viceversa, se questi metadati non ci sono, o vengono semplicemente rimossi con un trucco semplice come fare uno screenshot dell’immagine generata e pubblicare quello screenshot, anche l’immagine più vistosamente sintetica non verrà etichettata come “creata con IA”.

Purtroppo moltissimi utenti non sono al corrente di come funziona questo sistema di etichettatura e quindi stanno accusando di falsificazione fotografi che in realtà non hanno alcuna colpa. Questa etichetta così grossolana, insomma, sta causando danni reputazionali molto significativi. Ma questo a Meta non sembra interessare. Non per nulla fino al 2014 il motto ufficiale di Facebook, oggi Meta, era “move fast and break things”, ossia “muoviti in fretta e rompi le cose”: l’importante è fare soldi in fretta, e se nel farli si rovina la reputazione di qualcuno, il problema è di quel qualcuno, non di Meta.

Fate attenzione, insomma, a non farvi coinvolgere in discussioni e polemiche interminabili sulla “autenticità” di una foto su Instagram basandovi su questa etichetta: il rischio di trovarsi dalla parte del torto è molto alto. Anche perché forse state creando anche voi immagini sintetiche, di quelle che Meta etichetterebbe come “create con IA”, e nemmeno ve ne accorgete.

Fotografia computazionale

Se fate foto con il vostro smartphone, infatti, è molto probabile che alcuni dei filtri automatici presenti in questi dispositivi si basino sull’intelligenza artificiale. Per esempio, una foto di gruppo in cui tutti hanno miracolosamente gli occhi aperti o sorridono viene ottenuta spesso facendo una rapidissima raffica di foto e poi usando il riconoscimento delle immagini e dei volti per prendere dai vari scatti le facce venute bene e sovrapporle a quelle che hanno gli occhi chiusi o le espressioni serie. E tutto questo avviene direttamente a bordo dello smartphone, senza che ve ne accorgiate. Questa tecnica viene chiamata fotografia computazionale, e moltissime persone la usano senza nemmeno saperlo, perché è una funzione automatica standard degli smartphone di fascia alta.

Una foto ottenuta in questo modo è “falsa”, dato che non rappresenta un momento realmente esistito, e quindi dovrebbe essere etichettata da Meta? Oppure rappresenta la nostra intenzione o la nostra percezione della realtà come vorremmo che fosse, e quindi va accettata come “reale”?

Chiaramente la questione dell’autenticità e del realismo di un’immagine è molto più complessa e ricca di sfumature rispetto al banale “sì” oppure “no” di un’etichetta semplicistica come quella proposta da Meta. E questa necessità di sfumature, forse, è la lezione di realtà più importante di tutte.

 

Fonti aggiuntive: Crikey, Art-vibes, PetaPixel, Reddit.

2024/06/08

Ci ha lasciato Bill Anders, astronauta lunare. Sua la storica foto della Terra vista dalla Luna

Bill Anders tiene in mano il modello di una capsula Gemini e di un veicolo-bersaglio Agena, nel 1964. Foto S64-31555.

È morto a 90 anni Bill Anders, uno dei tre protagonisti della storica missione Apollo 8, la prima a spingersi con un equipaggio nello spazio profondo, uscendo dall’orbita terrestre e avventurandosi a 400.000 chilometri dalla Terra per orbitare intorno alla Luna, a dicembre del 1968, insieme a Jim Lovell e Frank Borman.

Fu lui a scattare l’altrettanto storica e celebre fotografia della Terra vista dalla Luna: le sonde spaziali avevano già ottenuto immagini simili, ma questa era la prima scattata da mano umana, da un testimone oculare della bellezza terrificante di quella fragile biglia sospesa nel nero ostile dello spazio.

Foto AS8-14-2383.

Anders è morto in un incidente aereo nelle isole di San Juan (comunicato stampa dell’ufficio dello sceriffo della contea). Il suo velivolo è stato ritrovato sott’acqua e il suo corpo è stato recuperato dai sommozzatori dopo estese ricerche. Al momento non risultano altri occupanti. Bill Anders lascia la moglie, Valerie, e sei figli.

Fonte: CNN.

La pagina commemorativa della NASA è www.nasa.gov/former-astronaut-william-a-anders. Il direttore generale (Administrator) dell’ente spaziale statunitense, Bill Nelson, lo ricorda così nel comunicato ufficiale:

“In 1968, as a member of the Apollo 8 crew, as one of the first three people to travel beyond the reach of our Earth and orbit the Moon, Bill Anders gave to humanity among the deepest of gifts an explorer and an astronaut can give. Along with the Apollo 8 crew, Bill was the first to show us, through looking back at the Earth from the threshold of the Moon, that stunning image – the first of its kind – of the Earth suspended in space, illuminated in light and hidden in darkness: the Earthrise.

“As Bill put it so well after the conclusion of the Apollo 8 mission, ‘We came all this way to explore the Moon, and the most important thing is that we discovered the Earth.’

“That is what Bill embodied – the notion that we go to space to learn the secrets of the universe yet in the process learn about something else: ourselves. He embodied the lessons and the purpose of exploration.

“The voyage Bill took in 1968 was only one of the many remarkable chapters in Bill’s life and service to humanity. In his 26 years of service to our country, Bill was many things – U.S. Air Force officer, astronaut, engineer, ambassador, advisor, and much more.

“Bill began his career as an Air Force pilot and, in 1964, was selected to join NASA’s astronaut corps, serving as backup pilot for the Gemini XI and Apollo 11 flights, and lunar module pilot for Apollo 8.

“He not only saw new things but inspired generation upon generation to see new possibilities and new dreams – to voyage on Earth, in space, and in the skies. When America returns astronauts to the Moon under the Artemis campaign, and ultimately ventures onward to Mars, we will carry the memory and legacy of Bill with us.

“At every step of Bill’s life was the iron will of a pioneer, the grand passion of a visionary, the cool skill of a pilot, and the heart of an adventurer who explored on behalf of all of us. His impact will live on through the generations. All of NASA, and all of those who look up into the twinkling heavens and see grand new possibilities of dazzling new dreams, will miss a great hero who has passed on: Bill Anders.”

2024/06/07

Podcast RSI - Strana mail di Meta; Windows 11 vuole registrare tutto

logo del Disinformatico

Ultimo aggiornamento: 2024/06/07 18:55.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: voce da speaker (generata da IA) legge un brano della mail di Meta]

Due giganti dell’informatica, Meta e Microsoft, presentano grandi novità nei loro prodotti. Meta annuncia che userà i dati degli utenti per addestrare le proprie intelligenze artificiali, mentre Microsoft presenta Recall, una funzione di Windows 11 che registra tutto quello che viene mostrato sullo schermo e lo fa analizzare e classificare da un’intelligenza artificiale. Ma in entrambi i casi, gli esperti criticano fortemente queste novità: non solo per le loro implicazioni tecniche potenzialmente pericolose, ma anche per questa scelta di imporre agli utenti nuove funzioni che non hanno chiesto, sono molto invadenti e una volta attivate sono molto difficili da disattivare.

Benvenuti alla puntata del 7 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

La mail di Meta sull’IA, spiegata

Se siete su Facebook o Instagram e vivete in Europa (intesa come regione geografica), probabilmente avete già ricevuto da Meta una mail che parla di aggiornamenti dell’informativa sulla privacy ed è scritta in burocratese stretto, con espressioni come “siamo pronti a espandere la nostra IA nelle esperienze Meta alla tua area geografica” oppure “Per consentirti di vivere queste esperienze, da adesso in poi ci affideremo alla base giuridica denominata interesse legittimo per l'uso delle tue informazioni al fine di sviluppare e migliorare l'IA di Meta”. Chiaro, no?

Sembra il solito annuncio periodico di nessun interesse, inviato più che altro per formalità e per rispettare gli obblighi di legge e quindi tranquillamente cestinabile, ma non è così. Tradotta in italiano normale, quella mail dice che se non vi opponete formalmente, dal 26 giugno prossimo Meta userà tutto quello che pubblicate sui suoi social network, quindi Facebook e Instagram e forse anche WhatsApp, per addestrare i suoi sistemi di intelligenza artificiale.

In altre parole, se non agite adesso, tutto quello che avete mai scritto nei messaggi pubblici e tutte le foto, gli audio e i video che ritraggono voi o i vostri eventuali figli e che avete messo sui social network di Meta in questi anni entreranno a far parte del cosiddetto corpus, ossia dell’immensa quantità di dati necessaria per far sembrare intelligenti questi prodotti.

Potreste pensare che questo non sia un problema. Tanto si tratta di testi, immagini, video e audio pubblici, non di messaggi privati (che stando a quanto dichiara Meta sono esclusi), quindi che male c’è se Meta li usa per migliorare la propria intelligenza artificiale? In fin dei conti sono dati che le avete già affidato quando li avete postati.

Ma c’è un dettaglio importante: Meta non precisa come userà quei dati. Non dice che tipo di intelligenza artificiale intende creare. Potrebbe trattarsi di un semplice chatbot per conversare, ma potrebbe anche essere un sistema che eroga pubblicità super-personalizzate basate su tutto quello che avete mai detto, fotografato o scritto. O potrebbe essere un’intelligenza artificiale che usa i vostri dati, la vostra voce, il vostro volto per creare un vostro clone digitale, che potrebbe dire o fare qualunque cosa, con il vostro aspetto e con il vostro esatto modo di parlare: un alter ego, un assistente virtuale, oppure un impostore.

Se entrano a far parte del corpus, i vostri volti o quelli dei figli o degli amici o dei familiari possono spuntare in immagini false o di propaganda o pornografiche. E come osserva anche l’esperto Matteo Flora, un fotografo, un cantante o un musicista che non rifiuta questo trattamento dei suoi dati potenzialmente permette a Meta di creare foto e canzoni nel suo stesso stile e con la sua voce.

In sintesi: dare carta bianca a qualunque possibile uso futuro è un rischio, soprattutto quando c’è di mezzo un’azienda che ha già dimostrato, come dire, una certa disinvoltura nell’uso dei dati dei suoi utenti per scopi socialmente dannosi. E Meta parla esplicitamente di cedere questi dati a terzi, di cui non sappiamo assolutamente nulla.

Di conseguenza, il consiglio degli esperti e delle associazioni di difesa dei diritti digitali è rifiutare questo nuovo tipo di trattamento dei nostri dati, che non è lo scopo per il quale li abbiamo concessi inizialmente, e chiedere anche a parenti, amici e colleghi di fare la stessa cosa. Infatti Meta avvisa che farà comunque elaborazione delle informazioni personali anche di chi ha rifiutato, se trova quelle informazioni nei post di qualcun altro che non ha rifiutato il trattamento. Quindi serve la collaborazione di tutti.

Come dire di no a Meta

Rifiutare il trattamento dei propri dati per l’intelligenza artificiale di Meta è abbastanza semplice: si clicca sulle parole “diritto di opposizione” nella mail, oppure si entra nel proprio account Facebook o Instagram e si va direttamente al link

https://privacycenter.instagram.com/privacy/genai

e lì si clicca sulle stesse parole “diritto di opposizione” nella parte finale della pagina. Non vi preoccupate di prendere nota di questo link: lo trovate presso Disinformatico.info, come tutte le altre fonti che cito in questo podcast.

[per chi ha un account Facebook, il link da usare è https://www.facebook.com/privacy/genai e le parole da cliccare sono “diritto di contestare”]

Fatto questo, avrete sullo schermo un modulo da compilare, intitolato “Contesta l'uso delle tue informazioni per l'IA di Meta”, e qui indicherete il vostro paese di residenza e il vostro indirizzo di mail e scriverete la spiegazione del vostro rifiuto. Se volete potete usare la spiegazione che ho usato io e che mi è stata ispirata da Fabienb.blog:

[CLIP: voce sintetica che legge le seguenti frasi: “Sono preoccupato del rischio che i miei dati vengano utilizzati in modi che non posso né controllare né prevedere. Rifiutando di partecipare al training dell’intelligenza artificiale, voglio assicurarmi che i miei dati vengano utilizzati esclusivamente per le funzioni di base dei prodotti di Meta, non per applicazioni future non ancora identificate e in modi sconosciuti e indesiderati.”]

Il modulo proposto da Instagram.

Cliccando sul pulsante Invia, il vostro rifiuto verrà inviato a Meta, che vi manderà via mail un codice di conferma di sei cifre. Immettendo questo codice e cliccando su Conferma, la richiesta di opposizione verrà trasmessa a Meta, che si riserverà di accettarla. Tutto qui: non occorre fare altro. Se tutto va bene, nel giro di qualche ora vi arriverà una mail di conferma che la vostra opposizione è stata accolta.

Nel frattempo sono già partite le prime azioni legali da parte di associazioni come lo European Center for Digital Rights, che accusano Meta di non rispettare la legge e in particolare di non rispettare il regolamento europeo GDPR. Secondo loro, infatti, questo regolamento richiede che l’utente dia il consenso esplicito per un nuovo trattamento dei suoi dati, come quello che sta per iniziare Meta; senza questo consenso i dati non si possono trattare. E invece Meta sta facendo il contrario, ossia sta dando per scontato il consenso di tutti e sta obbligando gli utenti a opporsi uno per uno.

Non è così che si conquista la fiducia degli utenti. Ma probabilmente Meta conta più sull’indifferenza che sulla fiducia.

Fonti aggiuntive: Mashable, EuroNews.


Windows 11: Recall vuole registrare tutto quello che fai

Il 20 maggio scorso Microsoft ha presentato una nuova funzione di Windows 11, chiamata Recall, che è una sorta di super-cronologia delle attività svolte al computer. Prossimamente, Windows farà automaticamente e in continuazione degli screenshot, ossia delle istantanee di quello che c’è sullo schermo del vostro computer, e userà l’onnipresente intelligenza artificiale per analizzare localmente il testo e le immagini presenti in questi screenshot. La funzione è già disponibile oggi per chi usa le versioni di anteprima di Windows 11.

[NOTA: per il momento, Recall viene installato soltanto sui computer di tipo Copilot+ con processore ARM e processore neurale o NPU, che sono una decina di modelli di varie marche, ma secondo Total Recall Microsoft dichiara di voler fornire supporto anche per i computer con processori AMD e Intel]

Questo permetterà all’utente di tornare indietro nel tempo, con un semplice clic, e rivedere cosa stava facendo al computer in qualunque momento degli ultimi tre mesi circa. Le istantanee dello schermo verranno catalogate e riordinate per categoria e sarà possibile fare ricerche per parole chiave all’interno di questa cronologia.

Per esempio, se sfogliando Internet avete visto una foto di un oggetto o di un prodotto ma non vi ricordate dove e quando l’avete visto, potrete ritrovarlo semplicemente scrivendone il nome, anche se l’oggetto è stato mostrato solo in fotografia, senza testo descrittivo. Ci penserà infatti Recall a riconoscere e catalogare gli oggetti e le persone presenti nelle foto. Il CEO di Microsoft, Satya Nadella, descrive Recall come una specie di memoria fotografica per i computer.

[CLIP di Nadella, tratto da questo post Mastodon di Kevin Beaumont. Diversamente da quello che dico nei saluti di coda, la clip è la sua voce reale e non è generata da IA]

Se ascoltando questa descrizione di Recall vi è venuto da pensare “Aspetta un momento…”, non siete i soli. Numerosi esperti di sicurezza informatica stanno segnalando Recall come se fosse la madre di tutte le pessime idee e raccomandano di imparare come disattivarlo, visto che sarà attivo per impostazione predefinita.*

* 2024/06/07 18:55. Microsoft ha dichiarato che Recall sarà opt-in: durante la configurazione iniziale del computer verrà offerta la possibilità di impostare Recall, che sarà disattivato per default (The Verge).

A livello istintivo, l’idea che il computer registri, cataloghi e annoti in continuazione e minuziosamente tutto ma proprio tutto quello che facciamo e tutti i siti che visitiamo dà un pochino i brividi per ovvie ragioni. Ma anche dal punto di vista tecnico, Recall pone problemi molto seri.

Per esempio, se vi collegate alla vostra banca per fare delle transazioni, Recall catturerà e archivierà schermate che contengono i vostri dettagli contabili. Se aprite una mail confidenziale, verrà letta e copiata in archivio da Recall. Se fate una chat segreta usando Signal o un altro sistema di messaggistica, quella chat verrà letta e conservata da Recall. Se custodite e gestite dati altrui per lavoro, per esempio in campo medico, una copia di quei dati finirà nella memoria di Recall, impedendovi di garantire ai vostri clienti che i loro dati personali siano stati davvero cancellati dopo l’uso. 

Certo, questi dati vengono conservati localmente, sul vostro computer, e non vengono passati a Microsoft, ma se un attacco informatico colpisce il vostro computer, gli intrusi potranno andare a colpo sicuro rubando l’archivio di Recall, dove troveranno tutti i dati che interessano a loro, già comodamente catalogati e classificati, invece di dover perdere tempo a cercarseli. Fra l’altro, l’archivio non è cifrato adeguatamente ed è semplicemente un database leggibile con molta facilità.

Una password viene rivelata da Recall. Fonte: Marc-André Moreau su Twitter/X.

Per dirla con le parole dell'esperto di sicurezza informatica Kevin Beaumont, “In sostanza sta per essere integrato in Windows un keylogger, presentato come una funzione positiva”. Un keylogger è un’applicazione ostile che registra di nascosto qualunque cosa venga digitata sulla tastiera e cattura delle schermate e poi manda il tutto all’aggressore informatico. Con Recall, la registrazione la fa già direttamente Windows e agli intrusi non resta che scaricarla, via Internet o localmente.

Certo, Recall è disattivabile, ma quanti utenti sanno farlo? Il problema è che è appunto attivato per impostazione predefinita, per cui spetta all’utente scoprire prima di tutto che esiste questa funzione e poi scoprire anche come disattivarla [istruzioni in italiano su IlSoftware.it], cosa tutt’altro che semplice; e come per le nuove funzioni di Meta, anche qui la novità viene imposta e sta all’utente ingegnarsi a respingerla. Sembra proprio che le aziende facciano fatica a comprendere il concetto di proporre le loro novità anziché imporle.

Il garante per la protezione dei dati personali britannico ha già avviato un’indagine, e stanno già nascendo i primi strumenti di analisi dei database di Recall [c’è anche un TotalRecall, con chiara citazione del film omonimo]. La questione è in rapida evoluzione; se ci saranno novità, le segnalerò nelle prossime puntate. Nel frattempo, ricordatevi questo nome: Recall.

Fonti aggiuntive: Kevin Beaumont (uno, due), Euronews, Ars Technica, Charlie StrossDDay.it.

2024/06/03

RSI - Niente Panico 2024/06/03

Ecco la puntata di questa settimana di Niente Panico, il programma radiofonico che conduco insieme a Rosy Nervi ogni lunedì mattina alle 11, in diretta alla RSI su Rete Tre, in aggiunta al consueto podcast del Disinformatico: streaming (si apre in una finestra separata) e download. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica e ho fatto da Lione, dove mi trovavo per lo European Skeptics Congress 2024 insieme agli amici del CICAP:

  • Antibufala: Internet sta scomparendo? No (Butac.it)
  • Antibufala: la morte di Terence Hill (no, non è morto) (Bufale.net)
  • Donne dimenticate dalla scienza: Alice Ball
  • Interviste improbabili con Character.ai: Tony Curtis

Screenshot della ricerca in Google con la query morto terence hill:

2024/05/31

Podcast RSI - Quando un diritto diventa un reato: app di tracciamento del ciclo mestruale, rischio di persecuzione governativa

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: La scena del dazio dal film “Non ci resta che piangere” (1984)]

Questa scena, tratta dal film “Non ci resta che piangere” del 1984, è diventata simbolo di tante assurdità e cecità burocratiche. È un esempio decisamente ironico, e forse per raccontarvi la storia strana di informatica di questa settimana avrei dovuto citare qualche brano della serie TV distopica Il racconto dell’ancella, perché questa è la storia di un’app legata alla riproduzione umana ed è una storia che risponde perfettamente a una domanda che viene fatta spessissimo a chi si occupa di privacy e sicurezza digitale: “Ma che male c’è a dare qualche dato personale a un’app? Cosa vuoi che se ne facciano? Io non ho niente da nascondere”.

Siamo nel 2024, e negli Stati Uniti, non in un paese totalitario, le app di monitoraggio dell’ovulazione vengono usate per tracciare in massa la fertilità femminile, anche dai datori di lavoro, e per incriminare le donne che risultano sospette solo perché hanno un ciclo mestruale irregolare. Un dato che sembrava così innocuo è di colpo diventato potenziale indizio di reato.

Benvenuti alla puntata del 31 maggio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e vorrei avvisarvi che questa puntata tocca temi molto delicati riguardanti la riproduzione e la sessualità.

[SIGLA di apertura]

Benvenuti a Gilead

Questa storia comincia con una segnalazione su Reddit, ad aprile scorso, di un’app per il monitoraggio del ciclo mestruale di nome Ovia (App Store; Google Play), che ha iniziato da poco, dice la segnalazione, a chiedere in quale stato risiede l’utente, perché quest’informazione è necessaria per poter continuare a usare l’app.

Dato che la fisiologia umana fondamentale non varia in base ai confini di stato, viene spontaneo chiedersi come mai ci sia bisogno di specificare lo stato di residenza in quest’app. È una domanda che coinvolge le decine di milioni di persone che nel mondo usano app di questo genere, come BabyCenter, Clue, My Calendar o Flo, per tenere traccia del proprio ciclo o di quello dei familiari.

Nel 2019 l’app Ovia era stata criticata (Washington Post) perché condivideva i dati di salute dei suoi utenti con i loro datori di lavoro. Lo faceva, e lo fa tuttora, in forma aggregata e anonimizzata, certo, ma soprattutto in un’azienda piccola risalire alle identità precise delle persone alle quali si riferiscono i dati di salute è piuttosto banale, specialmente per situazioni molto palesi come una gravidanza, che è solo uno dei dati raccolti da quest’app.

I datori di lavoro possono infatti sapere quanti dipendenti hanno avuto gravidanze a rischio o parti prematuri e possono vedere le principali informazioni di natura medica cercate dalle utenti, i farmaci assunti, l’appetito sessuale, l’umore, i tentativi di concepimento, il tempo medio necessario per ottenere una gravidanza e i tipi di parto precedenti. Tutti dati immessi dalle persone, incoraggiate a farlo dai buoni spesa, circa un dollaro al giorno, offerti dall’app.

L’azienda che ha sviluppato l’app, Ovia Health, dice che tutto questo consente alle aziende di “minimizzare le spese sanitarie, scoprire problemi medici e pianificare meglio i mesi successivi” e aggiunge che la sua app “ha permesso alle donne di concepire dopo mesi di infertilità e ha anche salvato le vite di donne che altrimenti non si sarebbero rese conto di essere a rischio”.

Anche altre app dello stesso genere sono state criticate fortemente da Consumer Reports, una influentissima associazione statunitense di difesa dei consumatori, e da associazioni di attivisti tecnologici come la brasiliana Coding Rights, perché non tutelavano affatto la riservatezza delle persone, per esempio permettendo l’accesso ai dati sanitari altrui a chiunque conoscesse l’indirizzo di mail della persona presa di mira oppure passando direttamente i dati mestruali a Facebook.

Uno studio del 2019, pubblicato dal prestigioso British Medical Journal, ha rilevato che il 79% delle app relative alla salute disponibili nel Play Store di Google condivideva con terzi i dati sanitari degli utenti.

C’è un nome per questo sfruttamento commerciale dei dati sanitari delle donne: femtech. Alcune stime indicano che il mercato femtech, che “include le app di tracciamento mestruale, nutrizionale e di benessere sessuale”, potrebbe valere fino a 50 miliardi di dollari entro il 2025 (Washington Post).

Già così lo scenario era piuttosto orwelliano, ma il 2 maggio 2022 è successo qualcosa che ha trasformato una sorveglianza invadente in una trappola inquietante.

Da diritto a reato

In quella data, infatti, la stampa ha reso pubblica una bozza di parere della Corte suprema statunitense che indicava che il diritto costituzionale all’aborto, vigente in tutto il paese da quasi cinquant’anni, sarebbe stato eliminato, come è poi appunto avvenuto. Nel giro di pochi mesi, numerosi stati americani hanno vietato l’aborto quasi completamente, in qualunque circostanza, senza eccezioni per violenza sessuale o incesto e anche se la vita della donna è in pericolo (CNN).

In altre parole, un atto che per mezzo secolo era un diritto è diventato di colpo un reato. E altrettanto di colpo, i dati accumulati dalle app di tracciamento mestruale sono diventati potenziale indizio o prova di reato, come hanno fatto notare sui social network varie persone esperte di sicurezza informatica, come Eva Galperin, della Electronic Frontier Foundation o l’attivista e avvocato Elizabeth McLaughlin, che hanno consigliato esplicitamente di smettere di usare queste app e di cancellare tutti i dati.

Il rischio che quei dati vengano usati contro le utenti, infatti, è decisamente concreto. Anche prima di quel grande scossone del 2022, era già capitato che funzionari governativi statunitensi che sostenevano idee antiabortiste si procurassero dati provenienti da queste app. Nel 2019 l’ex direttore tecnico sanitario del governo del Missouri, Randall Williams, aveva fatto redigere uno spreadsheet che tracciava le mestruazioni delle donne che avevano visitato le sedi di Planned Parenthood, una organizzazione no-profit che fornisce assistenza alla procreazione pianificata (CNN). E lo stesso anno il direttore del programma di reinsediamento dei rifugiati, Scott Lloyd, attivista contro l’aborto, aveva dichiarato di aver tracciato i cicli mestruali delle giovanissime migranti nel tentativo di impedire che abortissero (Harper’s Bazaar).

È facile pensare che queste siano situazioni estreme che si verificano negli Stati Uniti e che non potrebbero mai capitare qui da noi grazie ai paletti imposti alle aziende dal GDPR e dalla Legge federale sulla protezione dei dati, ma secondo Lee Tien, consulente legale della Electronic Frontier Foundation, anche le aziende europee sono soggette alle procedure legali statunitensi grazie a vari trattati internazionali, e quindi è possibile che i dati personali di un’app di tracciamento sanitario europea possano essere comunque richiesti da un’azione legale che parte dagli Stati Uniti (KFF Health News).

Sono situazioni come questa che fanno dire agli esperti di sicurezza informatica, come Mikko Hyppönen, che argomentare che non c’è da preoccuparsi per queste raccolte di massa di dati personali, perché tanto siamo cittadini onesti e non abbiamo niente da nascondere, semplicemente “non ha senso”.

Non ha senso perché un dato, una volta rilasciato, è rilasciato per sempre, e non abbiamo idea se un dato che oggi non è problematico lo sarà invece in futuro. Un altro esempio in questo senso arriva sempre dagli Stati Uniti, ma in un campo che a prima vista sembra completamente differente: i sistemi di lettura automatica delle targhe dei veicoli.

Diffusissimi fra le forze di polizia e anche fra le aziende, questi sistemi memorizzano oltre un miliardo di passaggi di veicoli ogni mese. L’intento originale era usarli per tracciare i veicoli coinvolti in reati, cosa difficilmente criticabile, ma come fa notare la rivista Wired, questi sistemi possono anche tracciare i veicoli che attraversano un confine di stato, per esempio per portare una persona in uno stato in cui l’aborto è ancora legale. E dato che le targhe sono per definizione esposte al pubblico, non occorre un mandato per procurarsi i dati raccolti da questi lettori automatici (EFF; The Guardian).

Come dice Hyppönen, “possiamo forse fidarci dei nostri governi attuali… ma ci fidiamo ciecamente di qualunque possibile governo futuro, di un governo che potremmo avere fra cinquant’anni?”

[CLIP: citazione di Mikko Hyppönen, tratta da un TEDx Talk del 2011: “And while we might trust our governments right now […], do we blindly trust any future government, a government we might have 50 years from now?”]

Resistenza digitale

La segnalazione su Reddit dalla quale è partita questa storia è diventata virale ed è stata accompagnata da ulteriori avvisi di altri utenti, pubblicati direttamente nelle pagine di download dell’app di tracciamento mestruale in questione per mettere in guardia chi la scarica. Il consiglio ricorrente, in questi avvisi, è non solo di non usare questa app, ma di non usare nessuna app che raccolta dati legati alla sfera intima e di tornare ai vecchi sistemi cartacei: il calendario o l’agendina di una volta, insomma. La paura, infatti, è che una donna che ha un ciclo irregolare possa essere identificata erroneamente come una persona che ha abortito e venga quindi accusata di un reato che non ha commesso, con tutto quello che ne consegue.

Certo, oggi siamo tutti abituati a fare qualunque cosa tramite app, ma la comodità di avere tutto nello smartphone ha un prezzo, e quel prezzo può cambiare in qualunque momento, difficilmente a favore di noi utenti.

Nel frattempo, grazie alle segnalazioni di questo problema è nata una forma di resistenza informatica molto particolare: numerose persone di ogni orientamento stanno scaricando queste app, il cui uso è solitamente gratuito, e le stanno adoperando per tracciare qualunque evento ciclico tranne le mestruazioni. L'intento è riempire di dati fasulli e incomprensibili gli archivi delle aziende che gestiscono queste app, in modo da contaminare il loro database, fargli perdere valore commerciale e impedire agli algoritmi predittivi di funzionare correttamente.

Visto il numero elevatissimo di utenti, questo tipo di sabotaggio probabilmente non sarà molto efficace dal punto di vista pratico e diretto, ma aiuterà a far conoscere il problema e a far capire perché le leggi sulla privacy dei dati sembrano una scocciatura ma sono in realtà così importanti. Servono, in sostanza, a evitare che si passi dal non avere nulla da nascondere al non avere più nulla da nascondere.

2024/05/27

RSI - Niente Panico 2024/05/27

È pronta la puntata di questa settimana di Niente Panico, il programma radiofonico che conduco insieme a Rosy Nervi ogni lunedì mattina alle 11, in diretta sulla Rete Tre della RSI, in aggiunta al consueto podcast del Disinformatico: streaming (si apre in una finestra separata) e download. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica:

  • Resoconto di Starmus: la parte scientifica
  • Antitruffa: una domanda veloce in privato su Messenger (Butac.it)
  • Tecniche dei furti degli account social (con testimonianze degli ascoltatori)
  • Cos’è una VPN
  • Donne dimenticate dalla scienza: Chien-Shiung Wu e, in generale, l’Effetto Matilda
  • ChatGPT altera il modo di conversare delle persone
  • Strane offerte di comprare foto personali per trasformarle in NFT: sono truffe
  • Interviste improbabili con Character.ai: Vincent Price (avatar su Character.ai)

2024/05/24

Podcast RSI - ChatGPT ha copiato la voce di Scarlett Johansson? Il Grande Saccheggio dell’IA

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: voce di Scarlett Johansson da “Her”]

Questa è la voce dell’attrice Scarlett Johansson dal film del 2013 Her, o Lei nella versione italiana, nel quale interpreta un’intelligenza artificiale che dialoga a voce, usando toni molto umani e seducenti, con i suoi utenti tramite i loro smartphone. Praticamente quello che fa realmente oggi la versione più recente di ChatGPT.

E questa, invece, è una delle voci inglesi di ChatGPT:

[CLIP: voce di Sky da ChatGPT]

Se notate una forte somiglianza, non siete i soli. Questa voce è così simile a quella di Scarlett Johansson che l’attrice ha dichiarato di essere “scioccata, arrabbiata e incredula”, perché “la voce era così simile alla mia che i miei amici più stretti e le redazioni dei giornali non sapevano percepire la differenza” (X/La Regione), e così ora ha incaricato dei legali di investigare sulla vicenda, mentre OpenAI, la società che gestisce ChatGPT, ha rimosso la voce contestata.

Questa è la storia di come l’idea futuribile di un film romantico e visionario è diventata realtà in poco più di un decennio, ma è anche la storia di come le aziende che producono intelligenze artificiali si stanno arricchendo immensamente agendo in zone grigie legali e attingendo al lavoro e alle immagini altrui senza dare alcun compenso, in un grande saccheggio che va accettato, dicono queste aziende, in nome del progresso. E i saccheggiati siamo tutti noi, non solo le celebrità.

Benvenuti alla puntata del 24 maggio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Lei e OpenAI, storia di un corteggiamento (professionale)

Questa storia inizia a settembre 2023, quando Sam Altman, CEO di OpenAI, l’azienda di intelligenza artificiale conosciutissima per il suo ChatGPT, ha chiesto all’attrice Scarlett Johansson se era interessata a prestare la sua voce, dietro compenso, alla versione 4.0 di ChatGPT. Johansson ha rifiutato l’offerta, ha detto, “dopo aver riflettuto molto e per ragioni personali”.

Due giorni prima della presentazione al pubblico di ChatGPT 4.0, Altman ha contattato l’agente dell’attrice chiedendo di riprendere in considerazione l’offerta. Prima ancora che iniziasse qualunque trattativa, ChatGPT 4.0 è stato rilasciato con una serie di voci che permettono agli utenti di dialogare in modo molto naturale con questo software semplicemente conversando.

Una di queste voci, denominata Sky, colpisce particolarmente sia per i suoi toni estremamente naturali, spiritosi e vivaci, al limite del flirt continuo con l’utente, sia per il fatto che somiglia davvero parecchio alla voce di Scarlett Johansson.

Se avete visto il film Lei in italiano, avrete apprezzato la voce e il talento della doppiatrice Micaela Ramazzotti…

[CLIP: voce di Micaela Ramazzotti che interpreta Samantha in Lei]

... ma vi sarete persi quella altrettanto memorabile di Johansson e quindi la somiglianza con la voce di ChatGPT non sarà così immediatamente evidente. Però indubbiamente la voce di Sky è molto, molto vicina a quella dell’attrice statunitense. E Altman non ha fatto mistero del fatto che il film Lei è una delle sue ispirazioni centrali, dichiarando pubblicamente che lo considera “incredibilmente profetico” e che ha azzeccato in pieno la rappresentazione del modo in cui oggi le persone interagiscono con le intelligenze artificiali.

Inoltre il 13 maggio scorso, poco dopo la presentazione al pubblico della voce di ChatGPT che ricorda così tanto quella di Johansson, Altman ha pubblicato un tweet contenente una sola parola: her. Il titolo originale del film.

L’attrice ha dato incarico a dei legali, che hanno chiesto formalmente a OpenAI di fornire i dettagli esatti di come hanno creato la voce denominata Sky. L’azienda ha risposto che la voce non è stata generata partendo da quella di Scarlett Johansson, ma appartiene a un’attrice assunta tempo addietro dall’azienda. Il Washington Post ha contattato l’agente di questa attrice, sotto anonimato per ragioni di sicurezza personale, e ha visionato documenti e ascoltato i provini registrati dall’attrice, e risulta che la sua voce calda e coinvolgente è identica a quella di Sky.

OpenAI ha anche pubblicato una cronologia dettagliata degli eventi, dicendo che a maggio 2023 aveva selezionato cinque voci di attori e attrici e successivamente aveva contattato Johansson proponendole di diventare la sesta voce di ChatGPT accanto alle altre, compresa quella di Sky, ma Johansson aveva cordialmente respinto la proposta una settimana più tardi tramite il suo agente.

Le voci degli altri attori sono state integrate in ChatGPT il 25 settembre scorso, dice OpenAI, e sono passati circa otto mesi prima che OpenAI ricontattasse Johansson il 10 maggio scorso, proponendole di diventare una futura voce aggiuntiva di ChatGPT, in occasione del lancio della nuova versione del prodotto. Il 19 maggio, pochi giorni dopo le dichiarazioni di Johansson, l’azienda ha disattivato la voce di Sky, dice, “per rispetto verso le preoccupazioni [dell’attrice]”.

Sembra insomma che si tratti solo di un caso di tempismo poco felice e di incomprensione, ma resta un problema: quello che ha fatto OpenAI, ossia creare una voce che molti trovano estremamente somigliante a quella di Johansson e guadagnarci parecchi soldi, è lecito?

Imitare non è lecito se l’intento è ingannare

Secondo gli esperti interpellati da varie testate giornalistiche, come il Washington Post o The Information, scegliere per il proprio prodotto una voce che somiglia molto a quella di una celebrità, specificamente in questo caso di una celebrità nota per aver interpretato proprio il ruolo della voce di un prodotto analogo, in un film molto conosciuto, e giocare sul fatto che molti utenti paganti di ChatGPT penseranno che si tratti davvero della voce di Johansson, rischia di essere comunque illegale, anche se l’azienda non ha effettivamente clonato la voce dell’attrice ma ha assunto una persona differente però somigliante.

Ci sono dei precedenti piuttosto importanti in questo senso, che risalgono a molto prima del boom dell’intelligenza artificiale. Quando non esisteva ancora la possibilità di usare campioni di registrazioni della voce di una persona per generarne una replica digitale si usavano gli imitatori in carne e ossa.

Per esempio, nel 1986 uno spot televisivo della Ford usò una imitatrice al posto della cantante Bette Midler come voce per un brano, Do You Wanna Dance di Bobby Freeman, che Midler aveva cantato. Midler era stata contattata per chiederle se fosse disposta a cantare nello spot, e lei aveva rifiutato. È così l’agenzia pubblicitaria incaricata dalla Ford, la Young & Rubicam, fece cantare la canzone a una corista di Bette Midler, Ula Hedwig.

Il parallelo con la vicenda di Scarlett Johansson e OpenAI è evidente, ma c’è una differenza importante: nel caso di Bette Midler, l’agenzia diede alla corista l’istruzione specifica di imitare la cantante. Midler fece causa, e vinse, ricevendo 400.000 dollari di risarcimento.

Anche il cantante Tom Waits si è trovato al centro di un caso di imitazione a scopo pubblicitario. Nel 1990 la ditta Frito-Lay usò un imitatore per inserire in un suo spot, dedicato alle patatine di mais, una voce che somigliasse a quella di Waits. L‘azienda fu condannata a pagare due milioni e mezzo di dollari.

Anche il chitarrista Carlos Santana, nel 1991, fece causa a un’azienda, la Miller Beer, per aver assunto un imitatore: non della sua voce, ma del suo stile di suonare la chitarra, in modo da poter usare il suo celeberrimo brano Black Magic Woman in uno spot televisivo. La disputa fu risolta in via stragiudiziale.

In sostanza, stando agli esperti, non importa se OpenAI ha assunto un sosia vocale di Scarlett Johansson o se ha proprio clonato la sua voce usando l’intelligenza artificiale: quello che conta è che ci fosse o meno l’intenzione di assomigliare alla voce di Johansson. Per il momento ci sono notevoli indizi indiretti di questa intenzione, ma manca una prova schiacciante: una richiesta esplicita di imitare la celebre attrice. Che fra l’altro per ora non ha avviato formalmente una causa.

Ma comunque vadano le cose nella disputa fra OpenAI e Scarlett Johansson, il problema dello sfruttamento gratuito dell’immagine, della voce o delle creazioni altrui da parte delle aziende di intelligenza artificiale rimane e tocca non solo gli attori e gli autori, ma ciascuno di noi.

Il Grande Saccheggio

Le intelligenze artificiali, infatti, hanno bisogno di enormi quantità di dati sui quali addestrarsi. Se devono riconoscere immagini, devono addestrarsi usando milioni di fotografie; se devono elaborare testi o generare risposte testuali, devono leggere miliardi di pagine; se devono generare musica, hanno bisogno di acquisire milioni di brani. Ma molte di queste immagini, di questi testi e di questi brani sono protetti dal diritto d’autore, appartengono a qualcuno. Se un’azienda usa contenuti di terzi senza autorizzazione per guadagnare soldi, sta commettendo un abuso.

La fame di contenuti delle intelligenze artificiali sembra inesauribile e incontenibile, e le aziende non sembrano curarsi troppo del fatto che i loro software saccheggino le dispense intellettuali altrui.

Gli esperti, infatti, hanno trovato il modo di rivelare che quasi tutti i principali software di intelligenza artificiale contengono i testi integrali di libri, riviste e quotidiani. A dicembre scorso il New York Times ha avviato una causa contro OpenAI e Microsoft per violazione del diritto d'autore, dato che ChatGPT e Bing Chat hanno dimostrato di essere capaci di produrre contenuti praticamente identici a milioni di articoli del Times, sfruttando la fatica cumulativa dei giornalisti della testata senza permesso e senza compenso.

Anche gli scrittori George RR Martin (celebre per il Trono di spade) e John Grisham, insieme a molte altre firme celebri, hanno avviato una lite con OpenAI, perché è emerso che ChatGPT ha incamerato e usato i testi integrali dei loro libri per migliorare le proprie capacità. Accusano OpenAI testualmente di “furto sistematico di massa”.

E non è solo un problema degli autori. Nella loro fame irrefrenabile, le intelligenze artificiali ingeriscono qualunque testo e cercano sempre contenuti nuovi, e le aziende non si fanno scrupoli a fornirglieli da qualunque fonte. Per esempio, Slack, una popolarissima piattaforma di chat e collaborazione aziendale, ha annunciato che usa le conversazioni degli utenti per addestrare la propria intelligenza artificiale, senza chiedere il loro consenso preventivo. Grok, l’intelligenza artificiale di X o Twitter, legge tutti i post pubblici degli utenti. Meta ha dato in pasto alla propria intelligenza artificiale un miliardo di post su Instagram, Google fa leggere alla propria intelligenza artificiale le mail degli utenti di Gmail, e Microsoft usa le chat con Bing per addestrare il proprio software. Nel campo delle immagini, Midjourney e OpenAI sono in grado di ricreare scene di film e videogiochi, dimostrando così di essere stati addestrati usando questi contenuti sotto copyright. Così fan tutti, insomma.

Ma nessuno di noi, quando ha aperto la propria casella Gmail o il proprio profilo Instagram, tempo fa, aveva immaginato un futuro nel quale le sue conversazioni, le sue foto, i suoi video sarebbero stati usati in massa per addestrare software che, se pungolati correttamente, rigurgitano brani interi di queste conversazioni.

E le aziende del settore dicono spavaldamente che tutto questo non solo va bene e che non c’è da preoccuparsi: dichiarano che è addirittura necessario, perché secondo loro è “impossibile” addestrare le grandi intelligenze artificiali senza attingere a opere vincolate dal diritto d'autore. Lo ha dichiarato specificamente OpenAI in una comunicazione formale alla Camera dei Lord britannica a dicembre scorso.

Ma c’è anche chi traduce quella comunicazione formale in parole molto più concise e taglienti, come l’esperto di intelligenza artificiale e professore emerito alla New York University Gary Marcus, che riassume la questione così: “Non possiamo diventare favolosamente ricchi se non ci permettete di rubare, quindi fate in modo che rubare non sia reato, e non fateci neanche pagare diritti di licenza! Certo, Netflix paga miliardi l’anno in diritti, ma noi non dovremmo essere tenuti a farlo!”

OpenAI vale attualmente circa 80 miliardi di dollari e ha triplicato il proprio valore in meno di dieci mesi.

2024/05/20

Quizzello: riuscite a identificare la frase generata dal mio clone digitale nel mio podcast?

Vi racconto un piccolo esempio di come l’intelligenza artificiale è concretamente utile nel mio lavoro. Ho finito il montaggio del mio podcast più recente mentre ero in viaggio, a Bratislava, per il festival di musica e scienza Starmus, come ho raccontato nei post precedenti. Avevo registrato il parlato prima di partire, ma dopo la partenza mi sono accorto di aver fatto una papera, leggendo una parola al posto di un’altra e quindi cambiando completamente il senso di una frase.

La frase non era sacrificabile e non c‘era modo di rimediare usando il montaggio digitale classico, e non avevo con me il microfono professionale che uso per registrare il parlato dei miei podcast. Anche se lo avessi avuto, sarebbe stato difficile trovare una stanza priva di rimbombo in cui registrare.

Soluzione: invocare il mio clone vocale. Tempo addietro ho fatto clonare la mia voce a ElevenLabs, e così sono andato online e ho chiesto al mio clone di leggere al posto mio quella frase sbagliata. Ho fatto fare qualche tentativo con varie intonazioni, poi ho scelto quella più calzante, l’ho scaricata e l’ho inserita nel podcast esattamente come se fossi tornato miracolosamente in studio a riregistrarla. Alle dieci di sera. Problema risolto!

Riuscite a riconoscere il punto in cui la mia voce è quella sintetica?

Per praticità, ripropongo qui il podcast in questione:

Secondo me, la versione sintetica è indistinguibile da quella reale a un ascolto normalmente attento e non verrebbe affatto notata se non segnalassi la sua presenza. Forse un ascolto molto attento, fatto in cuffia, potrebbe far notare il rattoppo del parlato.

Buona caccia!

ALLERTA SPOILER: La soluzione

La frase sostituita è “Eppure le risorse informative per tenersi aggiornati...” (a 8:10). Io avevo detto informatiche e non me ne ero accorto.

2024/05/17

Starmus Bratislava, giorno 5 (17 maggio): il gran finale

Proseguo il resoconto del festival di musica e scienza Starmus che si sta tenendo a Bratislava, in Slovacchia: oggi è l’ultimo giorno.

  • Kathryn Thornton (astronauta Shuttle). Correcting Hubble’s Vision: First Service Mission to the Hubble Space Telescope
  • Chris Hadfield (astronauta Shuttle e Soyuz). The Sky is Falling – what to do about Space Junk?
  • Neil Lawrence (informatico, professore di machine learning all’Università di Cambridge). What makes us unique in the age of AI
  • Garrett Reisman (astronauta Shuttle, consulente di SpaceX) (fuori programma).
  • David Eicher (Astronomy) e Robert Rees (London Stereoscopic Company) (fuori programma). Intervento dedicato al ricordo dell’astronomo Sir Patrick Moore, storico divulgatore scientifico britannico (The Sky at Night).
  • Carole Mundell (Director of Science all’ESA). From near Earth to the fabric of Space time - Journey through the Cosmos with the European Space Agency
  • Dante Lauretta (planetologo, Principal Investigator della missione OSIRIS-REx). From Bennu to the Brain: Tracing the Origins of Life and Consciousness through Asteroid Sample Analysis
  • Brian Greene (fisico e autore di libri di divulgazione della scienza). Until the end of time
  • Dibattito conclusivo con Joel Parker (astrofisico), Patrick Michel (planetologo), Scott Hubbard (astrofisico), Garrett Reisman (astronauta Shuttle, consulente di SpaceX); fuori programma, Victor Glover (astronauta Artemis, in video preregistrato). Humans to the Moon and Mars: Good idea or not?

asa

2024/05/16

Starmus Bratislava, giorno 4 (16 maggio)

Proseguo il mio resoconto di Starmus presentando i relatori della giornata di oggi.

  • Pietro Barabaschi (fisico, direttore del progetto di fusione nucleare ITER). Can nuclear fusion help to fuel the world? ITER and the Global Fusion Innovation Program. Lo stato attuale del progetto ITER.
  • Martin Rees (astrofisico). Post-human intelligence - a cosmic perspective (in video). L’esplorazione del cosmo da parte di esseri umani, finanziata dai governi, non ha senso: troppo costosa e inefficiente rispetto alla robotica di oggi e soprattutto a quella del prossimo futuro. Ma gli esploratori umani privati potrebbero avere senso, e se ci saranno, probabilmente modificheranno geneticamente la propria progenie per adattare l’organismo all’ambiente. Ipotesi scientifiche sulla vita tecnologica extraterrestre, biologica o non biologica.
  • George Smoot (astrofisico e premio Nobel). Cosmology: today and tomorrow. Lo stato dell’arte nelle osservazioni cosmologiche.
  • Michel Mayor (astrofisico e premio Nobel, scopritore del primo esopianeta). Change of paradigm during the 20th century - From one to billions of planetary systems.
  • Laurie Anderson (scrittrice, regista, compositrice, artista visivo, musicista e vocalista). Building an ARK.
  • Anton Zeilinger (fisico, premio Nobel), Randomness and reality.
  • Donna Strickland (fisico, premio Nobel). Global Environmental Measurement and Monitoring (GEMM).
  • Kurt Wütrich (chimico/biofisico, premio Nobel). Brownian Motion and Protein Dynamics in Solution.
  • Ospite aggiunto fuori programma: David Zambuka (comico della scienza). Artificial Intelligence.
  • 108 Minutes (evento privato a invito). Tavola rotonda con Jane Goodall, Tony Fadell, Laurie Anderson Chris Hadfield, Dexter Holland, Garik Israelian, Martin Rees, Katharine Hayhoe e Steven Chu.

Starmus Bratislava, giorno 3 (15 maggio)

Ieri Starmus è stato dedicato interamente alla musica, anche se nelle università vari relatori hanno tenuto delle conferenze per gli studenti, come negli altri giorni.

Si è svolta infatti la cerimonia di consegna delle Stephen Hawking Medal, le medaglie dedicate a chi si è distinto nella comunicazione della scienza. Sul palco si sono avvicendati Montserrat Martì (cantante, figlia di Montserrat Caballé), Celeste Buckingham (cantante slovacca) insieme al rapper slovacco Tono Suchota, Tony Hadley (degli Spandau Ballet), che ha incantato con Life on Mars (accompagnato nientemeno che dal tastierista che suonò nella versione originale di questa canzone, ossia un certo Rick Wakeman, e scusate se è poco), Through the Barricades, True e Gold, accompagnato dall’Orchestra filarmonica slovacca. Fra i brani presentati, We Are the Champions e Earth Song, cantati anche da un coro di bambini e bambine davvero notevole.

Wakeman ha poi eseguito il tema musicale di Starmus, scritto da lui, e un altro suo brano scritto per l’etologa Jane Goodall, che ha ricevuto dal pubblico una standing ovation insieme alla medaglia Hawking. Gli altri premiati sono stati Laurie Anderson (presente), Christopher Nolan (in video), David Attenborough (che a 98 anni ha scritto a Brian May una bellissima lettera di carta per scusarsi di non poter essere presente di persona), e l’oceanografa Sylvia Earle (presente).

Garik Israelian ha introdotto la serata e Robin Ince l’ha condotta, tenendo conto anche delle notizie gravissime dell’attentato al primo ministro slovacco Robert Fico. Ince ha regalato anche la lettura di sue poesie a metà fra scienza e sentimento: una si concludeva con questa dedica bellissima, un’ode alla capacità umana di creare bellezza attraverso la scienza: “Emergent complexity briefly defeats the void”. La complessità emergente sconfigge, brevemente, il vuoto.

Dopo la cerimonia, siamo rimasti in sala per il fragoroso concerto degli Offspring, nel quale ha fatto capolino Brian May. Cose che succedono solo qui a Starmus.

Queste sono le foto scattate da me: sto scaricando quelle ufficiali e ne pubblicherò qui una selezione. <







Laurie Anderson fra il pubblico.