Cerca nel blog

2024/06/21

Podcast RSI - Arte avvelenata contro l’intelligenza artificiale

logo del Disinformatico

Pubblicazione iniziale: 2024/06/21 7:12. Ultimo aggiornamento: 2024/06/25 11:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

[CLIP: La scena del libro avvelenato da “Il Nome della Rosa”]

Le intelligenze artificiali generative, quelle alle quali si può chiedere di generare un’immagine imitando lo stile di qualunque artista famoso, sono odiatissime dagli artisti, che già da tempo le accusano di rubare le loro opere per imparare a imitarle, rovinando il mercato e sommergendo le opere autentiche in un mare di imitazioni mediocri. La stessa cosa sta succedendo adesso anche con i film: software come il recentissimo Dream Machine creano video sfacciatamente ispirati, per non dire copiati, dai film d’animazione della Pixar.

Le società che operano nel settore dell’intelligenza artificiale stanno facendo soldi a palate, ma agli artisti di cui imitano il lavoro non arriva alcun compenso. Pubblicare una foto, un’illustrazione o un video su un sito o sui social network, come è normale fare per farsi conoscere, significa quasi sempre che quell’opera verrà acquisita da queste società. E questo vale, oltre che per le immagini di fotografi e illustratori, anche per le nostre foto comuni.

Ma ci sono modi per dire di no a tutto questo. Se siete artisti e volete sapere come impedire o almeno limitare l’abuso delle vostre opere, o se siete semplicemente persone che vogliono evitare che le aziende usino le foto che avete scattato per esempio ai vostri figli, potete opporvi almeno in parte a questo trattamento. E nei casi peggiori potete addirittura mettere del veleno digitale nelle vostre immagini, così le intelligenze artificiali che le sfoglieranno ne verranno danneggiate e non le potranno usare, un po’ come nel romanzo e nel film Il nome della rosa di cui avete sentito uno spezzone in apertura.

Vi interessa sapere come si fa? Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Questa è la puntata del 21 giugno 2024. Benvenuti. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Reclutati a forza

I generatori di immagini basati sull’intelligenza artificiale sono diventati estremamente potenti e realistici nel giro di pochissimo tempo. Il problema è che questi generatori sono stati creati, o più precisamente addestrati, usando le immagini di moltissimi artisti, senza il loro consenso e senza riconoscere loro alcun compenso.

Ogni intelligenza artificiale, infatti, ha bisogno di acquisire enormi quantità di dati. Una IA concepita per generare testi deve leggere miliardi di pagine di testo; una IA pensata per generare immagini deve “guardare”, per così dire, milioni di immagini, e così via. Il problema è che questi dati spesso sono presi da Internet in maniera indiscriminata, senza chiedere permessi e senza dare compensi.

Gli artisti dell’immagine, per esempio grafici, illustratori, fotografi e creatori di video, normalmente pubblicano le proprie opere su Internet, specialmente nei social network, per farsi conoscere, e quindi anche i loro lavori vengono acquisiti dalle intelligenze artificiali.

Il risultato di questa pesca a strascico è che oggi è possibile chiedere a un generatore di immagini di creare una foto sintetica o un’illustrazione nello stile di qualunque artista, per esempio un uomo in bicicletta nello stile di Gustav Klimt, di Raffaello, di Andy Warhol o dei mosaicisti bizantini, e si ottiene in una manciata di secondi un’immagine che scimmiotta il modo di disegnare o dipingere o creare mosaici o fare fotografie di quegli artisti. In alcuni casi si può addirittura inviare a questi generatori un’immagine autentica creata da uno specifico artista e chiedere di generarne una versione modificata. E lo si può fare anche per gli artisti ancora in vita, che non sono per nulla contenti di vedere che un software può sfornare in pochi istanti migliaia di immagini che scopiazzano le loro fatiche.

DALL-E 3 cerca di imitare lo stile di Klimt.
DALL-E 3 genera questa immagine di un uomo in bicicletta nello stile dei mosaicisti bizantini.
DALL-E 3 cerca di imitare lo stile di Raffaello.

Sono imitazioni spesso grossolane, che non ingannerebbero mai una persona esperta ma che sono più che passabili per molti utenti comuni, che quindi finiscono per non comperare gli originali. Per gli artisti diventa insomma più difficile guadagnarsi da vivere con la propria arte, e quello che è peggio è che i loro mancati ricavi diventano profitti per aziende stramiliardarie.

Inoltre pochi giorni fa è stato presentato il software Dream Machine, che permette di generare brevi spezzoni di video partendo da una semplice descrizione testuale, come fa già Sora di OpenAI, con la differenza che Sora è riservato agli addetti ai lavori, mentre Dream Machine è pubblicamente disponibile. Gli esperti hanno notato ben presto che nei video dimostrativi di Dream Machine non c’è solo un chiaro riferimento allo stile dei cartoni animati della Pixar: c’è proprio Mike Wazowski di Monsters & Co, copiato di peso.

Un video realizzato con Dream Machine, chiaramente ispirato ai personaggi di Monsters & Co.
Fotogramma tratto dal video, a 0:57 circa. Wazowski è ben visibile a sinistra dello zucchero filato.

Sarà interessante vedere come la prenderà la Disney, che detiene i diritti di questi personaggi e non è mai stata particolarmente tenera con chi viola il suo copyright.

Il problema delle immagini acquisite senza consenso dalle intelligenze artificiali riguarda anche le persone comuni che si limitano a fare foto di se stessi o dei propri figli. L’associazione Human Rights Watch, ai primi di giugno, ha segnalato che negli archivi di immagini usati per addestrare le intelligenze artificiali più famose si trovano foto di bambini reali, tratte dai social network, con tanto di nomi e cognomi che li identificano. Questi volti possono quindi riemergere nelle foto sintetiche illegali di abusi su minori, per esempio.

Il problema, insomma, è serio e tocca tutti. Vediamo quali sono le soluzioni.

Fermate il mondo, voglio scendere

Togliere tutte le proprie immagini da Internet, o non pubblicarle affatto online, è sicuramente una soluzione drasticamente efficace, in linea di principio, ma in concreto è una strada impraticabile per la maggior parte delle persone e soprattutto per gli artisti e i fotografi, per i quali Internet è da sempre la vetrina che permette loro di farsi conoscere e di trovare chi apprezza le loro creazioni. E comunque ci sarà sempre qualcuno che le pubblicherà online, quelle immagini, per esempio nelle versioni digitali delle riviste o dei cataloghi delle mostre.

Un altro approccio che viene facilmente in mente è il cosiddetto watermarking: la sovrapposizione di diciture semitrasparenti che mascherano in parte l’immagine ma la lasciano comunque visibile, come fanno le grandi aziende di immagini stock, per esempio Getty Images, Shutterstock o Adobe. Ma le intelligenze artificiali attuali sono in grado di ignorare queste diciture, per cui questa tecnica è un deterrente contro la pubblicazione non autorizzata ma non contro l’uso delle immagini per l’addestramento delle IA.

Va un po’ meglio se si usa il cosiddetto opt-out: l’artista manda un esemplare della propria foto o illustrazione ai grandi gestori di intelligenze artificiali e chiede formalmente che quell’immagine sia esclusa d’ora in poi dall’addestramento o training dei loro prodotti. Lo si può fare per esempio per DALL-E 3 di OpenAI, che viene usato anche dai generatori di immagini di Microsoft, oppure per Midjourney e Stability AI, mandando una mail agli appositi indirizzi. Lo si può fare anche per le intelligenze artificiali gestite da Meta, ma con molte limitazioni e complicazioni. Trovate comunque tutti i link a queste risorse su Disinformatico.info.

Il problema di questa tecnica di opt-out è che è tediosissima: in molti casi richiede infatti che venga inviato a ogni gestore di generatori di immagini un esemplare di ogni singola illustrazione o foto da escludere, e quell’esemplare va descritto in dettaglio. Se un artista ha centinaia o migliaia di opere, come capita spesso, segnalarle una per una è semplicemente impensabile, ma è forse fattibile invocare questa esclusione almeno per le immagini più rappresentative o significative dello stile di un artista o di un fotografo.

C’è anche un’altra strada percorribile: pubblicare le proprie immagini soltanto sul proprio sito personale o aziendale, e inserire nel sito del codice che dica a OpenAI e agli altri gestori di intelligenze artificiali di non sfogliare le pagine del sito e quindi di non acquisire le immagini presenti in quelle pagine.

In gergo tecnico, si inserisce nel file robots.txt del proprio sito una riga di testo che vieta l’accesso al crawler di OpenAI e compagni. Anche in questo caso, le istruzioni per OpenAI e per altre società sono disponibili su Disinformatico.info [le istruzioni per OpenAI sono qui; quelle per altre società sono qui].

[2024/06/25 11:30: In alcuni casi si può anche bloccare il range di indirizzi IP di ChatGPT. In questo modo non serve chiedere per favore, come nel caso di robot.txt, ma si blocca e basta]

Si può anche tentare la cosiddetta segmentazione: in pratica, le immagini non vengono pubblicate intatte, ma vengono suddivise in porzioni visualizzate una accanto all’altra, un po’ come le tessere di un mosaico, per cui le intelligenze artificiali non riescono a “vedere”, per così dire, l’immagine completa, mentre una persona la vede perfettamente. Uno dei siti che offrono questo approccio è Kin.art.

Tutti questi metodi funzionano abbastanza bene: non sono rimedi assoluti, ma perlomeno aiutano a contenere il danno escludendo le principali piattaforme di generazione di immagini. Tuttavia sono molto onerosi, e ci sarà sempre qualche start-up senza scrupoli che ignorerà le richieste di esclusione o troverà qualche modo di eludere questi ostacoli. Sarebbe bello se ci fosse un modo per rendere le proprie immagini inutilizzabili dalle intelligenze artificiali in generale, a prescindere da dove sono pubblicate.

Quel modo c’è, ed è piuttosto drastico: consiste nell’iniettare veleno digitale nelle proprie creazioni.

Veleno digitale: IA contro IA

Parlare di veleno non è un’esagerazione: il termine tecnico per questo metodo è infatti data poisoning, che si traduce con “avvelenamento dei dati”. In pratica consiste nell’alterare i dati usati per l’addestramento di un’intelligenza artificiale in modo che le sue elaborazioni diano risultati errati o completamente inattendibili.

Nel caso specifico della protezione delle proprie immagini, il data poisoning consiste nel modificare queste immagini in modo che contengano alterazioni che non sono visibili a occhio nudo ma che confondono o bloccano completamente il processo di addestramento di un’intelligenza artificiale. Semplificando, l’intelligenza artificiale acquisisce una foto del vostro gatto, ma grazie a queste alterazioni la interpreta come se fosse la foto di un cane, di una giraffa o di una betoniera, anche se all’occhio umano si tratta chiaramente della foto di un bellissimo gatto.

Ci sono programmi appositi per alterare le immagini in questo modo: Glaze e Nightshade, per esempio, sono gratuiti e disponibili per Windows e macOS. Richiedono parecchia potenza di calcolo e svariati minuti di elaborazione per ciascuna immagine, ma è possibile dare loro un elenco di immagini e farle elaborare tutte automaticamente. Non sono infallibili, e alcune aziende di intelligenza artificiale adottano già tecniche di difesa contro queste alterazioni. Ma nella maggior parte dei casi queste tecniche consistono semplicemente nell’ignorare qualunque immagine che contenga indicatori di queste alterazioni, per cui se il vostro scopo è semplicemente evitare che le vostre immagini vengano incluse nell’addestramento di un’intelligenza artificiale, Glaze e Nightshade vanno benissimo.

Trilli, la gatta del Maniero Digitale, in versione normale...
...e in versione avvelenata con Glaze.

Mist è un altro programma di questo tipo, ma invece di alterare le immagini in modo che la IA le interpreti in modo completamente errato le modifica in una maniera speciale che fa comparire una sorta di watermark o sovrimpressione decisamente sgradevole, una sorta di velo di geroglifici, in ogni immagine generata partendo da immagini trattate con Mist, che come i precedenti è gratuito e disponibile per macOS e Windows e richiede una scheda grafica piuttosto potente e tempi di elaborazione significativi.

C’è una sottile ironia nell’usare software basati sull’intelligenza artificiale per sconfiggere le aziende basate sull’intelligenza artificiale, ma in tutta questa rincorsa fra guardie e ladri non bisogna dimenticare che questi software consumano quantità preoccupanti di energia per i loro calcoli straordinariamente complessi: a gennaio 2024, l’Agenzia Internazionale dell’Energia (IEA) ha pubblicato una stima secondo la quale il 4% della produzione di energia mondiale nel 2026 sarà assorbito dai data center, dalle criptovalute e dall’intelligenza artificiale. Per dare un’idea di cosa significhi, il 4% equivale al consumo energetico di tutto il Giappone.*

* “Electricity consumption from data centres, artificial intelligence (AI) and the cryptocurrency sector could double by 2026. Data centres are significant drivers of growth in electricity demand in many regions. After globally consuming an estimated 460 terawatt-hours (TWh) in 2022, data centres’ total electricity consumption could reach more than 1 000 TWh in 2026. This demand is roughly equivalent to the electricity consumption of Japan” (pag. 8).

La stessa agenzia ha calcolato che una singola ricerca in Google consuma 0,3 wattora di energia elettrica [dato risalente al 2009, probabilmente migliorato da allora], mentre una singola richiesta a ChatGPT ne consuma 2,9, ossia quasi dieci volte di più. Per fare un paragone, se tutti usassero ChatGPT invece di Google per cercare informazioni, la richiesta di energia aumenterebbe di 10 terawattora l’anno, pari ai consumi annui di un milione e mezzo di europei.*

* “Search tools like Google could see a tenfold increase of their electricity demand in the case of fully implementing AI in it. When comparing the average electricity demand of a typical Google search (0.3 Wh of electricity) to OpenAI’s ChatGPT (2.9 Wh per request), and considering 9 billion searches daily, this would require almost 10 TWh of additional electricity in a year.“ (pag. 34, che cita come fonte l’articolo accademico del 2023 The growing energy footprint of artificial intelligence di Alex De Vries su Joule, https://doi.org/10.1016/j.joule.2023.09.004).
Il dato di 0,1 Wh (1 kJ) è citato da Google in questo post del 2009: “Together with other work performed before your search even starts (such as building the search index) this amounts to 0.0003 kWh of energy per search, or 1 kJ. For comparison, the average adult needs about 8000 kJ a day of energy from food, so a Google search uses just about the same amount of energy that your body burns in ten seconds. In terms of greenhouse gases, one Google search is equivalent to about 0.2 grams of CO2. The current EU standard for tailpipe emissions calls for 140 grams of CO2 per kilometer driven, but most cars don't reach that level yet. Thus, the average car driven for one kilometer (0.6 miles for those in the U.S.) produces as many greenhouse gases as a thousand Google searches.”
FullFact ha svolto una ricerca sull’argomento e non ha trovato dati più recenti, ma nota che “Google told us that since then it has made its data centres more energy efficient. We also spoke to Yannick Oswald, a PhD researcher in energy footprints at the University of Leeds who told us that if the energy consumption of a Google search has changed since 2009, it’s most likely to have decreased due to improvements in energy efficiency”.
Il confronto con il consumo degli utenti europei è tratto da questo articolo di Vox di marzo 2024.

Pensateci, la prossima volta che invece di usare un motore di ricerca vi affidate a un’intelligenza artificiale online.


Fonti aggiuntive: How to keep your art out of AI generators, The Verge; How watermarks can help protect against fraud with generative AI like ChatGPT, Fast Company.

2024/06/14

Podcast RSI - Instagram, l’etichetta “Creato con IA” fa infuriare i fotografi veri; aggiornamento su Windows Recall

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Se siete fra i due miliardi e mezzo di utenti di Instagram, probabilmente avete notato che da qualche settimana alcune fotografie postate su questo social network sono accompagnate da una piccola dicitura: nella versione italiana, questa dicitura è “Creato con IA”, dove “IA” ovviamente sta per l’immancabile, onnipresente intelligenza artificiale.

Gli hater dell’intelligenza artificiale – sì, esistono e sono numerosi e anche inviperiti – vedono questa etichetta sulle fotografie di luoghi e persone pubblicate su Instagram e lasciano commenti livorosi in cui accusano chi le ha postate di essere un bugiardo, perché secondo loro l’etichetta dimostra che si tratta di falsi creati appunto con l’intelligenza artificiale. E gli autori delle foto in questione si sgolano, invano, cercando di dimostrare che le loro foto sono autentiche, scattate davvero sul luogo e con soggetti e persone reali. Niente da fare: l’etichetta “Creato con IA” li condanna. Fotografi professionisti celebri si vedono screditati di colpo da queste tre brevi parole.

Questa è la storia strana di una iniziativa di Meta, proprietaria di Instagram, partita con l’intento di fare chiarezza nel caos delle immagini sintetiche spacciate per vere che stanno intasando questo social network. Quell’intento si è trasformato in un autogol, che sta facendo infuriare i fotografi che avrebbe dovuto proteggere. E fra quei fotografi, e fra quegli accusati, potreste trovarvi anche voi.

Se volete saperne di più e conoscere come difendervi da questi nuovi hater, siete nel posto giusto: benvenuti! Questa è la puntata del 14 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Recall richiamato

Prima di tutto devo fare un aggiornamento a una delle notizie che ho segnalato nel podcast precedente, ossia l’introduzione in Windows 11 di un nuovo servizio, chiamato Recall, che in sostanza registra localmente tutto quello che passa sullo schermo, con ovvi problemi di privacy. Poco dopo la chiusura della puntata, Microsoft ha reagito al clamore mediatico prodotto dall’annuncio di Recall e ha risposto in parte alle preoccupazioni degli esperti, modificando il funzionamento del servizio.

Mentre prima Recall era attivo per impostazione predefinita e toccava all’utente scoprire come disattivarlo, d’ora in poi sarà attivato solo se l’utente accetterà la proposta di attivazione, che comparirà durante la configurazione iniziale del computer (The Verge). Restano ancora valide tutte le considerazioni di privacy e di sicurezza che sono state segnalate dagli esperti per chi decide di attivare Recall, ma perlomeno adesso è più facile e naturale per l’utente rifiutare questo servizio.

Colgo l’occasione per precisare anche un altro dettaglio importante: per il momento, Recall viene installato ed è disponibile soltanto sui computer di tipo Copilot+ dotati di processore ARM e processore neurale o NPU, che sono una decina di modelli di varie marche. Chi ha un computer meno recente di questi non si vedrà proporre l’attivazione di Recall. Almeno per ora, perché Microsoft ha dichiarato di voler fornire supporto anche per i computer con processori AMD e Intel, che sono i più diffusi. Staremo a vedere.

Instagram e l’etichetta “Creato con IA”

Da qualche settimana Instagram ha iniziato ad aggiungere automaticamente ai post una dicitura che avvisa gli utenti che un’immagine postata è stata creata usando prodotti basati sull’intelligenza artificiale. In italiano questa dicitura è “Creato con IA”.

Dall’account Instagram @candyrose_mc (link diretto al post).

L’intenzione di Meta era buona: etichettare chiaramente le immagini sintetiche generate con l’intelligenza artificiale, che ormai hanno raggiunto un livello di realismo tale da rendere molto difficile, se non impossibile, distinguere un’immagine sintetica da una fotografia reale.

La pubblicazione di immagini sintetiche fotorealistiche, senza avvisare esplicitamente che si tratta di qualcosa che è stato generato completamente da zero e non esiste nella realtà fisica, è infatti chiaramente ingannevole, specialmente quando l’immagine generata rappresenta una situazione plausibile nel mondo reale. Il rischio che i professionisti delle fake news usino i generatori di immagini basati sull’intelligenza artificiale per produrre immagini false di persone conosciute, allo scopo per esempio di ridicolizzarle o screditarle, è fin troppo evidente e ne esistono già molti casi documentati.

C’è anche il problema che i generatori di immagini finiscono per svilire il lavoro e la fatica dei fotografi professionisti, perché invece di comporre pazientemente la scena, mettere in posa il soggetto, regolare le luci e tutte le altre cose che un fotografo è costretto a fare fisicamente per ottenere una certa immagine, oggi si può ottenere un risultato più che paragonabile usando l’intelligenza artificiale, standosene comodamente al computer. Instagram è invaso, infatti, dalle foto di “modelle” che sono in realtà immagini generate dal computer, e le fotomodelle reali si vedono scavalcate da immagini sintetiche che possono essere fabbricate in una manciata di secondi, non si stancano, non invecchiano, non cambiano forme o peso e non hanno spese di trasferta o compensi da pretendere. E gran parte degli utenti (e anche dei committenti) non è in grado di accorgersi della differenza.

Etichettare le immagini sintetiche sembrebbe quindi un’ottima idea per difendere il professionismo dei fotografi e il lavoro di modelli e modelle in carne e ossa, e anche per contrastare le fake news; eppure i fotografi sono sul piede di guerra e pubblicano proteste indignate contro questa etichettatura.

L’etichetta che scredita

La ragione delle loro proteste è molto semplice: la “soluzione” escogitata da Meta sta etichettando come sintetiche, ossia false agli occhi del pubblico, anche le loro foto, quelle scattate con una fotocamera, inquadrando un soggetto fisico reale. L’etichetta “Creato con IA” sta insomma screditando il lavoro di moltissimi professionisti, ed è importante che chi usa Instagram sia ben consapevole che al momento attuale questa etichetta non vuol dire necessariamente che l’immagine sia stata generata da zero con l’intelligenza artificiale, e che viceversa la mancanza di questa etichetta non è una garanzia di autenticità.

Questa etichetta, infatti, viene applicata da Meta ai post su Instagram in due casi. Il primo è quello in cui chi posta un’immagine decide volontariamente di etichettarla come sintetica, usando la funzione apposita presente nell’app di Instagram [per esempio per evitare di incappare in sanzioni da parte di Meta]. Il secondo caso, quello più importante, è quello in cui Meta rileva in un’immagine sintetica la presenza di appositi indicatori, che vengono incorporati nell’immagine sotto forma di metadati dai programmi di generazione o di fotoritocco. Questi indicatori informano Meta che è stato fatto uso di intelligenza artificiale per elaborare l’immagine in questione.

Ma attenzione: l’etichetta “Creato con IA” viene applicata automaticamente da Meta non solo quando l’immagine è totalmente generata, ma anche quando una fotografia reale viene manipolata in qualunque modo, anche molto lievemente, usando software come Photoshop, che adoperano per alcuni strumenti l’intelligenza artificiale per produrre fotoritocchi sempre più rapidi e sofisticati.

Ovviamente c’è una differenza enorme fra un’immagine fotorealistica completamente generata al computer e una fotografia tradizionale alla quale è stato fatto un piccolo ritocco digitale per rimuovere, che so, un dettaglio antiestetico, eppure Meta mette tutto nel mucchio, perché in realtà non sta facendo alcun lavoro di analisi sofisticata delle immagini, per esempio per cercare di “capire” dal contenuto e dal contesto se sono sintetiche oppure no: sta semplicemente controllando se sono presenti o meno questi metadati. Se ci sono, mostra l’etichetta “Creato con IA”, e lo fa anche se il fotografo ha usato una vera fotocamera e ha inquadrato per esempio una modella reale, andando in un luogo reale, ma ha usato, anche in misura minima, uno degli strumenti di rifinitura di Photoshop basati sull’intelligenza artificiale, per esempio per rimuovere una minuscola sbavatura nel trucco o un granello di polvere che era finito sul sensore della fotocamera.

E viceversa, se questi metadati non ci sono, o vengono semplicemente rimossi con un trucco semplice come fare uno screenshot dell’immagine generata e pubblicare quello screenshot, anche l’immagine più vistosamente sintetica non verrà etichettata come “creata con IA”.

Purtroppo moltissimi utenti non sono al corrente di come funziona questo sistema di etichettatura e quindi stanno accusando di falsificazione fotografi che in realtà non hanno alcuna colpa. Questa etichetta così grossolana, insomma, sta causando danni reputazionali molto significativi. Ma questo a Meta non sembra interessare. Non per nulla fino al 2014 il motto ufficiale di Facebook, oggi Meta, era “move fast and break things”, ossia “muoviti in fretta e rompi le cose”: l’importante è fare soldi in fretta, e se nel farli si rovina la reputazione di qualcuno, il problema è di quel qualcuno, non di Meta.

Fate attenzione, insomma, a non farvi coinvolgere in discussioni e polemiche interminabili sulla “autenticità” di una foto su Instagram basandovi su questa etichetta: il rischio di trovarsi dalla parte del torto è molto alto. Anche perché forse state creando anche voi immagini sintetiche, di quelle che Meta etichetterebbe come “create con IA”, e nemmeno ve ne accorgete.

Fotografia computazionale

Se fate foto con il vostro smartphone, infatti, è molto probabile che alcuni dei filtri automatici presenti in questi dispositivi si basino sull’intelligenza artificiale. Per esempio, una foto di gruppo in cui tutti hanno miracolosamente gli occhi aperti o sorridono viene ottenuta spesso facendo una rapidissima raffica di foto e poi usando il riconoscimento delle immagini e dei volti per prendere dai vari scatti le facce venute bene e sovrapporle a quelle che hanno gli occhi chiusi o le espressioni serie. E tutto questo avviene direttamente a bordo dello smartphone, senza che ve ne accorgiate. Questa tecnica viene chiamata fotografia computazionale, e moltissime persone la usano senza nemmeno saperlo, perché è una funzione automatica standard degli smartphone di fascia alta.

Una foto ottenuta in questo modo è “falsa”, dato che non rappresenta un momento realmente esistito, e quindi dovrebbe essere etichettata da Meta? Oppure rappresenta la nostra intenzione o la nostra percezione della realtà come vorremmo che fosse, e quindi va accettata come “reale”?

Chiaramente la questione dell’autenticità e del realismo di un’immagine è molto più complessa e ricca di sfumature rispetto al banale “sì” oppure “no” di un’etichetta semplicistica come quella proposta da Meta. E questa necessità di sfumature, forse, è la lezione di realtà più importante di tutte.

 

Fonti aggiuntive: Crikey, Art-vibes, PetaPixel, Reddit.

2024/06/08

Ci ha lasciato Bill Anders, astronauta lunare. Sua la storica foto della Terra vista dalla Luna

Bill Anders tiene in mano il modello di una capsula Gemini e di un veicolo-bersaglio Agena, nel 1964. Foto S64-31555.

È morto a 90 anni Bill Anders, uno dei tre protagonisti della storica missione Apollo 8, la prima a spingersi con un equipaggio nello spazio profondo, uscendo dall’orbita terrestre e avventurandosi a 400.000 chilometri dalla Terra per orbitare intorno alla Luna, a dicembre del 1968, insieme a Jim Lovell e Frank Borman.

Fu lui a scattare l’altrettanto storica e celebre fotografia della Terra vista dalla Luna: le sonde spaziali avevano già ottenuto immagini simili, ma questa era la prima scattata da mano umana, da un testimone oculare della bellezza terrificante di quella fragile biglia sospesa nel nero ostile dello spazio.

Foto AS8-14-2383.

Anders è morto in un incidente aereo nelle isole di San Juan (comunicato stampa dell’ufficio dello sceriffo della contea). Il suo velivolo è stato ritrovato sott’acqua e il suo corpo è stato recuperato dai sommozzatori dopo estese ricerche. Al momento non risultano altri occupanti. Bill Anders lascia la moglie, Valerie, e sei figli.

Fonte: CNN.

La pagina commemorativa della NASA è www.nasa.gov/former-astronaut-william-a-anders. Il direttore generale (Administrator) dell’ente spaziale statunitense, Bill Nelson, lo ricorda così nel comunicato ufficiale:

“In 1968, as a member of the Apollo 8 crew, as one of the first three people to travel beyond the reach of our Earth and orbit the Moon, Bill Anders gave to humanity among the deepest of gifts an explorer and an astronaut can give. Along with the Apollo 8 crew, Bill was the first to show us, through looking back at the Earth from the threshold of the Moon, that stunning image – the first of its kind – of the Earth suspended in space, illuminated in light and hidden in darkness: the Earthrise.

“As Bill put it so well after the conclusion of the Apollo 8 mission, ‘We came all this way to explore the Moon, and the most important thing is that we discovered the Earth.’

“That is what Bill embodied – the notion that we go to space to learn the secrets of the universe yet in the process learn about something else: ourselves. He embodied the lessons and the purpose of exploration.

“The voyage Bill took in 1968 was only one of the many remarkable chapters in Bill’s life and service to humanity. In his 26 years of service to our country, Bill was many things – U.S. Air Force officer, astronaut, engineer, ambassador, advisor, and much more.

“Bill began his career as an Air Force pilot and, in 1964, was selected to join NASA’s astronaut corps, serving as backup pilot for the Gemini XI and Apollo 11 flights, and lunar module pilot for Apollo 8.

“He not only saw new things but inspired generation upon generation to see new possibilities and new dreams – to voyage on Earth, in space, and in the skies. When America returns astronauts to the Moon under the Artemis campaign, and ultimately ventures onward to Mars, we will carry the memory and legacy of Bill with us.

“At every step of Bill’s life was the iron will of a pioneer, the grand passion of a visionary, the cool skill of a pilot, and the heart of an adventurer who explored on behalf of all of us. His impact will live on through the generations. All of NASA, and all of those who look up into the twinkling heavens and see grand new possibilities of dazzling new dreams, will miss a great hero who has passed on: Bill Anders.”

2024/06/07

Podcast RSI - Strana mail di Meta; Windows 11 vuole registrare tutto

logo del Disinformatico

Ultimo aggiornamento: 2024/06/07 18:55.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: voce da speaker (generata da IA) legge un brano della mail di Meta]

Due giganti dell’informatica, Meta e Microsoft, presentano grandi novità nei loro prodotti. Meta annuncia che userà i dati degli utenti per addestrare le proprie intelligenze artificiali, mentre Microsoft presenta Recall, una funzione di Windows 11 che registra tutto quello che viene mostrato sullo schermo e lo fa analizzare e classificare da un’intelligenza artificiale. Ma in entrambi i casi, gli esperti criticano fortemente queste novità: non solo per le loro implicazioni tecniche potenzialmente pericolose, ma anche per questa scelta di imporre agli utenti nuove funzioni che non hanno chiesto, sono molto invadenti e una volta attivate sono molto difficili da disattivare.

Benvenuti alla puntata del 7 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

La mail di Meta sull’IA, spiegata

Se siete su Facebook o Instagram e vivete in Europa (intesa come regione geografica), probabilmente avete già ricevuto da Meta una mail che parla di aggiornamenti dell’informativa sulla privacy ed è scritta in burocratese stretto, con espressioni come “siamo pronti a espandere la nostra IA nelle esperienze Meta alla tua area geografica” oppure “Per consentirti di vivere queste esperienze, da adesso in poi ci affideremo alla base giuridica denominata interesse legittimo per l'uso delle tue informazioni al fine di sviluppare e migliorare l'IA di Meta”. Chiaro, no?

Sembra il solito annuncio periodico di nessun interesse, inviato più che altro per formalità e per rispettare gli obblighi di legge e quindi tranquillamente cestinabile, ma non è così. Tradotta in italiano normale, quella mail dice che se non vi opponete formalmente, dal 26 giugno prossimo Meta userà tutto quello che pubblicate sui suoi social network, quindi Facebook e Instagram e forse anche WhatsApp, per addestrare i suoi sistemi di intelligenza artificiale.

In altre parole, se non agite adesso, tutto quello che avete mai scritto nei messaggi pubblici e tutte le foto, gli audio e i video che ritraggono voi o i vostri eventuali figli e che avete messo sui social network di Meta in questi anni entreranno a far parte del cosiddetto corpus, ossia dell’immensa quantità di dati necessaria per far sembrare intelligenti questi prodotti.

Potreste pensare che questo non sia un problema. Tanto si tratta di testi, immagini, video e audio pubblici, non di messaggi privati (che stando a quanto dichiara Meta sono esclusi), quindi che male c’è se Meta li usa per migliorare la propria intelligenza artificiale? In fin dei conti sono dati che le avete già affidato quando li avete postati.

Ma c’è un dettaglio importante: Meta non precisa come userà quei dati. Non dice che tipo di intelligenza artificiale intende creare. Potrebbe trattarsi di un semplice chatbot per conversare, ma potrebbe anche essere un sistema che eroga pubblicità super-personalizzate basate su tutto quello che avete mai detto, fotografato o scritto. O potrebbe essere un’intelligenza artificiale che usa i vostri dati, la vostra voce, il vostro volto per creare un vostro clone digitale, che potrebbe dire o fare qualunque cosa, con il vostro aspetto e con il vostro esatto modo di parlare: un alter ego, un assistente virtuale, oppure un impostore.

Se entrano a far parte del corpus, i vostri volti o quelli dei figli o degli amici o dei familiari possono spuntare in immagini false o di propaganda o pornografiche. E come osserva anche l’esperto Matteo Flora, un fotografo, un cantante o un musicista che non rifiuta questo trattamento dei suoi dati potenzialmente permette a Meta di creare foto e canzoni nel suo stesso stile e con la sua voce.

In sintesi: dare carta bianca a qualunque possibile uso futuro è un rischio, soprattutto quando c’è di mezzo un’azienda che ha già dimostrato, come dire, una certa disinvoltura nell’uso dei dati dei suoi utenti per scopi socialmente dannosi. E Meta parla esplicitamente di cedere questi dati a terzi, di cui non sappiamo assolutamente nulla.

Di conseguenza, il consiglio degli esperti e delle associazioni di difesa dei diritti digitali è rifiutare questo nuovo tipo di trattamento dei nostri dati, che non è lo scopo per il quale li abbiamo concessi inizialmente, e chiedere anche a parenti, amici e colleghi di fare la stessa cosa. Infatti Meta avvisa che farà comunque elaborazione delle informazioni personali anche di chi ha rifiutato, se trova quelle informazioni nei post di qualcun altro che non ha rifiutato il trattamento. Quindi serve la collaborazione di tutti.

Come dire di no a Meta

Rifiutare il trattamento dei propri dati per l’intelligenza artificiale di Meta è abbastanza semplice: si clicca sulle parole “diritto di opposizione” nella mail, oppure si entra nel proprio account Facebook o Instagram e si va direttamente al link

https://privacycenter.instagram.com/privacy/genai

e lì si clicca sulle stesse parole “diritto di opposizione” nella parte finale della pagina. Non vi preoccupate di prendere nota di questo link: lo trovate presso Disinformatico.info, come tutte le altre fonti che cito in questo podcast.

[per chi ha un account Facebook, il link da usare è https://www.facebook.com/privacy/genai e le parole da cliccare sono “diritto di contestare”]

Fatto questo, avrete sullo schermo un modulo da compilare, intitolato “Contesta l'uso delle tue informazioni per l'IA di Meta”, e qui indicherete il vostro paese di residenza e il vostro indirizzo di mail e scriverete la spiegazione del vostro rifiuto. Se volete potete usare la spiegazione che ho usato io e che mi è stata ispirata da Fabienb.blog:

[CLIP: voce sintetica che legge le seguenti frasi: “Sono preoccupato del rischio che i miei dati vengano utilizzati in modi che non posso né controllare né prevedere. Rifiutando di partecipare al training dell’intelligenza artificiale, voglio assicurarmi che i miei dati vengano utilizzati esclusivamente per le funzioni di base dei prodotti di Meta, non per applicazioni future non ancora identificate e in modi sconosciuti e indesiderati.”]

Il modulo proposto da Instagram.

Cliccando sul pulsante Invia, il vostro rifiuto verrà inviato a Meta, che vi manderà via mail un codice di conferma di sei cifre. Immettendo questo codice e cliccando su Conferma, la richiesta di opposizione verrà trasmessa a Meta, che si riserverà di accettarla. Tutto qui: non occorre fare altro. Se tutto va bene, nel giro di qualche ora vi arriverà una mail di conferma che la vostra opposizione è stata accolta.

Nel frattempo sono già partite le prime azioni legali da parte di associazioni come lo European Center for Digital Rights, che accusano Meta di non rispettare la legge e in particolare di non rispettare il regolamento europeo GDPR. Secondo loro, infatti, questo regolamento richiede che l’utente dia il consenso esplicito per un nuovo trattamento dei suoi dati, come quello che sta per iniziare Meta; senza questo consenso i dati non si possono trattare. E invece Meta sta facendo il contrario, ossia sta dando per scontato il consenso di tutti e sta obbligando gli utenti a opporsi uno per uno.

Non è così che si conquista la fiducia degli utenti. Ma probabilmente Meta conta più sull’indifferenza che sulla fiducia.

Fonti aggiuntive: Mashable, EuroNews.


Windows 11: Recall vuole registrare tutto quello che fai

Il 20 maggio scorso Microsoft ha presentato una nuova funzione di Windows 11, chiamata Recall, che è una sorta di super-cronologia delle attività svolte al computer. Prossimamente, Windows farà automaticamente e in continuazione degli screenshot, ossia delle istantanee di quello che c’è sullo schermo del vostro computer, e userà l’onnipresente intelligenza artificiale per analizzare localmente il testo e le immagini presenti in questi screenshot. La funzione è già disponibile oggi per chi usa le versioni di anteprima di Windows 11.

[NOTA: per il momento, Recall viene installato soltanto sui computer di tipo Copilot+ con processore ARM e processore neurale o NPU, che sono una decina di modelli di varie marche, ma secondo Total Recall Microsoft dichiara di voler fornire supporto anche per i computer con processori AMD e Intel]

Questo permetterà all’utente di tornare indietro nel tempo, con un semplice clic, e rivedere cosa stava facendo al computer in qualunque momento degli ultimi tre mesi circa. Le istantanee dello schermo verranno catalogate e riordinate per categoria e sarà possibile fare ricerche per parole chiave all’interno di questa cronologia.

Per esempio, se sfogliando Internet avete visto una foto di un oggetto o di un prodotto ma non vi ricordate dove e quando l’avete visto, potrete ritrovarlo semplicemente scrivendone il nome, anche se l’oggetto è stato mostrato solo in fotografia, senza testo descrittivo. Ci penserà infatti Recall a riconoscere e catalogare gli oggetti e le persone presenti nelle foto. Il CEO di Microsoft, Satya Nadella, descrive Recall come una specie di memoria fotografica per i computer.

[CLIP di Nadella, tratto da questo post Mastodon di Kevin Beaumont. Diversamente da quello che dico nei saluti di coda, la clip è la sua voce reale e non è generata da IA]

Se ascoltando questa descrizione di Recall vi è venuto da pensare “Aspetta un momento…”, non siete i soli. Numerosi esperti di sicurezza informatica stanno segnalando Recall come se fosse la madre di tutte le pessime idee e raccomandano di imparare come disattivarlo, visto che sarà attivo per impostazione predefinita.*

* 2024/06/07 18:55. Microsoft ha dichiarato che Recall sarà opt-in: durante la configurazione iniziale del computer verrà offerta la possibilità di impostare Recall, che sarà disattivato per default (The Verge).

A livello istintivo, l’idea che il computer registri, cataloghi e annoti in continuazione e minuziosamente tutto ma proprio tutto quello che facciamo e tutti i siti che visitiamo dà un pochino i brividi per ovvie ragioni. Ma anche dal punto di vista tecnico, Recall pone problemi molto seri.

Per esempio, se vi collegate alla vostra banca per fare delle transazioni, Recall catturerà e archivierà schermate che contengono i vostri dettagli contabili. Se aprite una mail confidenziale, verrà letta e copiata in archivio da Recall. Se fate una chat segreta usando Signal o un altro sistema di messaggistica, quella chat verrà letta e conservata da Recall. Se custodite e gestite dati altrui per lavoro, per esempio in campo medico, una copia di quei dati finirà nella memoria di Recall, impedendovi di garantire ai vostri clienti che i loro dati personali siano stati davvero cancellati dopo l’uso. 

Certo, questi dati vengono conservati localmente, sul vostro computer, e non vengono passati a Microsoft, ma se un attacco informatico colpisce il vostro computer, gli intrusi potranno andare a colpo sicuro rubando l’archivio di Recall, dove troveranno tutti i dati che interessano a loro, già comodamente catalogati e classificati, invece di dover perdere tempo a cercarseli. Fra l’altro, l’archivio non è cifrato adeguatamente ed è semplicemente un database leggibile con molta facilità.

Una password viene rivelata da Recall. Fonte: Marc-André Moreau su Twitter/X.

Per dirla con le parole dell'esperto di sicurezza informatica Kevin Beaumont, “In sostanza sta per essere integrato in Windows un keylogger, presentato come una funzione positiva”. Un keylogger è un’applicazione ostile che registra di nascosto qualunque cosa venga digitata sulla tastiera e cattura delle schermate e poi manda il tutto all’aggressore informatico. Con Recall, la registrazione la fa già direttamente Windows e agli intrusi non resta che scaricarla, via Internet o localmente.

Certo, Recall è disattivabile, ma quanti utenti sanno farlo? Il problema è che è appunto attivato per impostazione predefinita, per cui spetta all’utente scoprire prima di tutto che esiste questa funzione e poi scoprire anche come disattivarla [istruzioni in italiano su IlSoftware.it], cosa tutt’altro che semplice; e come per le nuove funzioni di Meta, anche qui la novità viene imposta e sta all’utente ingegnarsi a respingerla. Sembra proprio che le aziende facciano fatica a comprendere il concetto di proporre le loro novità anziché imporle.

Il garante per la protezione dei dati personali britannico ha già avviato un’indagine, e stanno già nascendo i primi strumenti di analisi dei database di Recall [c’è anche un TotalRecall, con chiara citazione del film omonimo]. La questione è in rapida evoluzione; se ci saranno novità, le segnalerò nelle prossime puntate. Nel frattempo, ricordatevi questo nome: Recall.

Fonti aggiuntive: Kevin Beaumont (uno, due), Euronews, Ars Technica, Charlie StrossDDay.it.

2024/06/03

RSI - Niente Panico 2024/06/03

Ecco la puntata di questa settimana di Niente Panico, il programma radiofonico che conduco insieme a Rosy Nervi ogni lunedì mattina alle 11, in diretta alla RSI su Rete Tre, in aggiunta al consueto podcast del Disinformatico: streaming (si apre in una finestra separata) e download. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica e ho fatto da Lione, dove mi trovavo per lo European Skeptics Congress 2024 insieme agli amici del CICAP:

  • Antibufala: Internet sta scomparendo? No (Butac.it)
  • Antibufala: la morte di Terence Hill (no, non è morto) (Bufale.net)
  • Donne dimenticate dalla scienza: Alice Ball
  • Interviste improbabili con Character.ai: Tony Curtis

Screenshot della ricerca in Google con la query morto terence hill: