Cerca nel blog

2024/07/21

Due parole sul caos informatico mondiale di ieri

Tristemente calzante, a parte la random person in Nebraska. Credit: xkcd.
Ne hanno parlato già tutti e io non ho molto da aggiungere sulla base delle informazioni tecniche rese pubbliche fin qui. Vorrei solo sottolineare che la colpa primaria, qui, non è di Microsoft, come hanno fatto sembrare molti dei servizi giornalistici sulla vicenda, ma di CrowdStrike, la società di sicurezza informatica che ha realizzato maldestramente e rilasciato incautamente l’aggiornamento del suo software che ha paralizzato i computer che usano Windows e i servizi di sicurezza di CrowdStrike.

Non ha senso che un aggiornamento di un software così vitale sia stato distribuito in massa a tutto il mondo pressoché contemporaneamente, invece di testarlo fornendolo a un gruppo ristretto di clienti che accettano di fare da tester e poi distribuirlo a tutti. Questo è l’errore principale, a mio avviso, e non capisco perché sia stato commesso. Può darsi che ci sia stato qualche aspetto di urgenza particolare di cui non sono a conoscenza.

La colpa secondaria è degli amministratori dei sistemi informatici e dei dirigenti che troppo spesso impongono a loro software e ambienti operativi inadatti e forniscono risorse insufficienti per fare bene il loro lavoro, fregandosene della ridondanza e dei piani di disaster management

Più in generale, c’è un problema di monocultura e di eccessiva interdipendenza. Monocultura nel senso che è pericoloso che oltre la metà delle principali aziende mondiali usi lo stesso software, qualunque esso sia, perché se per caso quel software risulta danneggiato o vulnerabile gli effetti sono globali (come si è visto). Eccessiva interdipendenza nel senso che avere i dati nel cloud è comodo, avere un controllo centralizzato dei dati è comodo, e tutto questo riduce i costi, ma significa anche che le singole filiali dipendono totalmente dalla possibilità di collegarsi ai sistemi centrali, persino per le cose più banali. E questo è un problema di architettura software ma anche di mentalità aziendale, che aspira al controllo e non riesce a delegare.

I risultati di queste scelte si sono visti ampiamente in questo sconquasso planetario. Avete voluto mettere tutto nel cloud? Avete voluto mettere tutto su macchine con un unico sistema operativo? Ve l’avevamo detto che farlo senza un Piano B era da incoscienti. 

Ma tanto sono gli utenti a pagare e penare per i disservizi, e sono gli amministratori di sistema a dover impazzire per ripristinare, spesso uno per uno, tutti i computer che ora sfoggiano uno Schermo Blu della Morte. Mentre le aziende che hanno causato tutto questo la passeranno liscia, perché il contratto probabilmente prevede delle clausole di esenzione da responsabilità e soprattutto perché tanto il costo operativo di migrare a un prodotto concorrente è troppo elevato per le aziende clienti e quindi tutti continueranno a usare CrowdStrike esattamente come prima. 


2024/07/19

Podcast RSI - Svizzera, allarme per la falsa app governativa AGOV: è un malware che ruba dati, fatto per colpire i Mac

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: L’inizio di uno degli spot classici “Get a Mac...” (2006-2009): quello che parla di virus per Windows e si vanta dell’immunità del Mac. La musica dello spot si intitola Having Trouble Sneezing ed è di Mark Mothersbaugh dei Devo]

Ben ritrovati dopo la breve pausa estiva di questo podcast! Riparto subito con un mito informatico da smontare, e da smontare in fretta, perché sta contribuendo al successo di una campagna di attacchi informatici che stanno prendendo di mira specificamente la Svizzera ma si stanno estendendo anche ad altri paesi.

Il mito è che i Mac siano immuni ai virus. Non è così, ma molti continuano a crederlo e si infettano scaricando app create appositamente dai criminali informatici. Se poi a questo mito si aggiunge il fatto che queste app infettanti fingono di essere applicazioni ufficiali governative, il successo della trappola è quasi inevitabile.

Questa è la storia di Poseidon, un malware per Mac, un’applicazione ostile che ruba i dati e le credenziali degli utenti di computer Apple spacciandosi per AGOV, un’applicazione di accesso ai servizi della Confederazione e delle autorità cantonali e comunali, per esempio per la compilazione e l’invio della dichiarazione d’imposta, ed è anche la storia di questo mito duro da estirpare della presunta invulnerabilità dei Mac.

Benvenuti alla puntata del 19 luglio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Se nei giorni scorsi avete ricevuto una mail apparentemente firmata dall’Amministrazione federale svizzera e avete seguito il suo consiglio di scaricare e installare sul vostro computer l’applicazione AGOV delle autorità nazionali, come è successo a moltissimi residenti nella Confederazione, il vostro Mac è quasi sicuramente infetto e i vostri dati personali sono quasi sicuramente stati rubati.

L’allarme è stato lanciato dall’Ufficio federale della cibersicurezza, UFCS, alla fine del mese scorso. Il 27 giugno, segnala l’UFCS, “criminali informatici hanno avviato un’importante campagna di «malspam» contro cittadini della Svizzera tedesca. E-mail apparentemente provenienti da AGOV infettano gli apparecchi degli utenti di macOS con un malware denominato «Poseidon Stealer».”

Breve spiegazione per chi non abita in Svizzera: AGOV è il sistema di accesso online ai servizi delle autorità svizzere. Si trova presso Agov.ch ed è disponibile anche come app per smartphone Apple e Android, ma non come applicazione per computer. Agov è insomma un nome di cui gli svizzeri si fidano. Un nome perfetto per carpire la fiducia degli utenti.

I criminali informatici di cui parla l’UFCS hanno acquisito un malware di tipo stealer, ossia che ruba dati e credenziali di accesso, e lo hanno rimarchiato, presentandolo appunto come software di AGOV per Mac.

Sì, avete capito bene: i criminali hanno comperato il virus informatico già fatto. Questo specifico virus va sotto il nome generico di Atomic MacOS Stealer (o AMOS per gli amici), ed è stato ribattezzato Poseidon: è in vendita via Telegram sotto forma di licenza d’uso mensile che costa 1000 dollari al mese, secondo le informazioni raccolte dalla società di sicurezza informatica Intego. Il crimine informatico è un’industria, non una brigata di dilettanti, e quindi si è organizzato con una rete di fornitori. Atomic Stealer, o Poseidon che dir si voglia, è quello che oggi si chiama malware as a service, cioè un servizio di produzione e fornitura di virus per computer, disponibile al miglior offerente.

Le organizzazioni criminali, in altre parole, comprano il malware chiavi in mano e poi lo personalizzano in base al paese che vogliono prendere di mira. Per disseminarlo usano varie tecniche: una delle preferite è comperare spazi pubblicitari su Google, pagandoli profumatamente per far apparire i loro annunci apparentemente innocui in cima ai risultati di ricerca degli utenti.

Ovviamente questi criminali informatici non si presentano agli agenti pubblicitari di Google dicendo “Salve, siamo criminali informatici”, ma usano aziende prestanome.

La gente, poi, cerca per esempio Agov scrivendolo in Google e vede un elenco di risultati fra i quali spiccano le pubblicità dei criminali, che fingono di offrire software per accedere ai servizi delle autorità nazionali. È quindi facile, anzi inevitabile, che molti utenti clicchino su queste pubblicità, che sono fra l’altro difficili da distinguere dai risultati di ricerca autentici. Cliccandoci su, gli utenti vengono portati a un sito gestito dai truffatori, che propone di scaricare il presunto software governativo, che in realtà è il malware travestito. E chi lo scarica e lo installa, si infetta. Anche se ha un Mac. Anzi, soprattutto se ha un Mac, perché questo malware è fatto apposta per colpire gli utenti dei computer Apple.

Il mito dell’invulnerabilità dei Mac ha radici lontane. Per anni, Apple ha pubblicizzato i propri computer scrivendo cose come “I Mac non prendono i virus per PC” oppure “un Mac non è attaccabile dalle migliaia di virus che appestano i computer basati su Windows”. Frasi che tecnicamente non sono sbagliate, ma sono ingannevoli per l’utente comune, che le interpreta facilmente come “i Mac non prendono virus”, dimenticando quella precisazione “per PC” che cambia tutto.

Normalmente, infatti, i virus vengono creati per uno specifico sistema operativo e funzionano solo su quello, per cui per esempio un virus per Android non funziona su un tablet o smartphone iOS e quindi anche un virus scritto per Mac non fa un baffo a un utente che adopera Windows. Ma i virus per Mac esistono eccome. Tant’è vero che a giugno del 2012, dopo la comparsa di una raffica di virus fatti su misura per i Mac, Apple tolse con discrezione dal proprio sito quelle frasi, sostituendole con altre parole ben più blande (Wired; Sophos).

Eppure il mito continua a persistere.

Conoscere la tecnica di disseminazione dei malware usata dai criminali permette di capire subito un trucco da usare per difendersi preventivamente: si tratta di un piccolo ma importante cambiamento di abitudini, ossia smettere di usare Google, o un altro motore di ricerca, per accedere ai siti.

Moltissimi utenti, infatti, per andare per esempio su Facebook non digitano facebook.com nella casella di navigazione e ricerca ma scrivono semplicemente facebook in Google e poi cliccano sul primo risultato proposto da Google, presumendo che sarà quello giusto. I criminali lo sanno, e creano pubblicità che compaiono quando l’utente digita solo parte del nome di un sito invece del nome intero. In questo modo, l’utente clicca sulla pubblicità, credendo che sia un risultato di ricerca, e viene portato al sito dei truffatori, dove potrà essere imbrogliato a puntino.

Il modo giusto per essere sicuri di visitare un sito autentico è scriverne il nome per intero, compreso il suffisso .com, .ch, .it o altro che sia nella casella di navigazione e ricerca. E se è un sito che si prevede di consultare spesso, conviene salvarlo nei Preferiti, così basterà un solo clic sulla sua icona per raggiungerlo di nuovo con certezza. Meglio ancora, se il sito offre un’app, conviene usare quell’app, specialmente per i siti che maneggiano soldi, come per esempio i negozi online e le banche.

Questa tecnica di scrivere il nome per intero invece di cliccare sul risultato proposto al primo posto da Google si applica anche a un’altra tecnica usata dai criminali per portarci sui loro siti trappola: i link ingannevoli nelle mail. I criminali responsabili dell’attacco che ha colpito gli utenti svizzeri hanno usato proprio questa modalità.

Secondo le informazioni pubblicate dall’autorità nazionale di sicurezza informatica Govcert.ch, questi criminali hanno usato il servizio di mail di Amazon (che i filtri antispam normalmente non bloccano) per inviare mail, apparentemente spedite dalle autorità federali, che avvisavano gli utenti che da luglio 2024 sarebbe diventato obbligatorio usare il software AGOV per computer per accedere ai servizi federali, cantonali e comunali. La mail conteneva un link al motore di ricerca Bing (del quale gli utenti si fidano), che portava a un sito che a sua volta portava automaticamente a un altro sito, con un nome che somigliava a quello giusto, come per esempio agov-access.net oppure agov-ch.com, che ospitava il malware e aveva una grafica molto simile a quella del sito autentico.

Una schermata tratta dal sito dei truffatori. Fonte: Govcert.ch.

Il malware veniva presentato spacciandolo appunto per l’app AGOV per i Mac. Che, ripeto, in realtà non esiste.

Come al solito, insomma, l’attacco faceva leva sulla psicologia: i criminali hanno creato una situazione di stress per la vittima e le hanno messo fretta parlando di scadenze imminenti, e hanno creato un percorso rassicurante, che sembrava autorevole ma era in realtà pilotato dai malviventi.

A questi due ingredienti classici degli attacchi si è aggiunto il fatto che gli utenti Apple sono spesso convinti che i loro computer siano inattaccabili e quindi le loro difese mentali sono già abbassate in partenza.

Nel caso specifico di questo attacco, le autorità di sicurezza nazionali sono intervenute pubblicando avvisi e bollettini sui propri siti e anche sul sito Agov.ch, e pubblicando un’analisi tecnica molto approfondita [altre info sono su Abuse.ch]. Inoltre i siti che ospitavano il malware sono stati bloccati e disattivati. Ma è solo questione di tempo prima che i criminali ci riprovino. Sta a noi essere vigili e prudenti.

Se per caso siete stati coinvolti in questo attacco, l’UFCS vi raccomanda di eliminare immediatamente le e-mail che avete ricevuto e di fare una reinstallazione da zero del Mac se avete scaricato e installato il malware.

A tutto questo scenario di attacchi, contrattacchi, misure preventive e difensive conviene decisamente aggiungere anche un altro elemento fondamentale: l’antivirus. Il malware Poseidon viene riconosciuto da tutti i principali antivirus, per cui è opportuno installare sul proprio Mac un antivirus di una marca di buona reputazione. A differenza di Windows, macOS non ha un antivirus integrato vero e proprio ma ha solo una sorta di mini-antivirus che fa molto, ma non arriva al livello di protezione di un prodotto dedicato realizzato da aziende specializzate.

La parte più difficile dell’installazione di un antivirus su un Mac è… convincere l’utente che ne ha bisogno. Quel mito di invulnerabilità creato, sfruttato e poi silenziosamente ritirato più di dieci anni fa continua a restare radicato nelle abitudini delle persone. E a fare danni.

2024/07/16

Lettera aperta al direttore de La Stampa per l’articolo sulle presunte foto lunari false

A proposito dell’articolo de La Stampa del 12 luglio scorso pieno di falsità sulle missioni lunari a firma di Luigi Grassia (ne ho scritto qui), poco fa ho inviato questa mail al direttore (andrea.malaguti@lastampa.it) e a lettere@lastampa.it.

Oggetto: Richiesta di rettifica vostro articolo a firma Luigi Grassia

Buongiorno,

sono un giornalista specializzato in storia delle missioni spaziali. Le segnalo che l'articolo a firma Luigi Grassia intitolato “Polemica: sulla Luna siamo andati o no? Il film “Fly me to the Moon” rilancia i dubbi” contiene numerosi gravi errori fattuali e varie affermazioni offensive nei confronti di chi lavora nell’industria aerospaziale odierna, di cui l’Italia è protagonista.

Grassia dice che “alcune delle foto che la Nasa ha diffuso al tempo delle missioni Apollo sono state riconosciute come false dalla stessa Nasa, che ha dovuto ritirarle”. Non è vero.

Grassia afferma anche che “la Nasa diffuse a suo tempo, fra migliaia di altre, una doppia versione di una foto dell’Apollo 15 sulla Luna.” Anche questo non è vero.

Possiedo i cataloghi originali NASA delle foto di quella missione. Non c'è nessuna “doppia versione”.

Per cui le insinuazioni di Grassia sulla NASA e sulle sue presunte “ammissioni sporadiche di falso” sono un parto della fantasia o dell’incompetenza di qualcuno a cui Grassia ha prestato troppa fiducia.

Oltretutto tutte queste asserzioni di Grassia vengono fatte senza dare un riferimento documentale. Quando sarebbero state fatte queste “ammissioni”? Da chi? Ogni foto della NASA ha un numero di serie che la identifica: perché non indicare quale sarebbe il numero della foto “doppia”?

Trovo davvero spiacevole che si dia spazio, a cinquantacinque anni dall’impresa lunare, a tesi strampalate già smentite abbondantemente da tutti gli storici e dagli addetti ai lavori.

Trovo deprimente che dalle pagine de La Stampa si getti fango sulla comunità aerospaziale di oggi, asserendo che “purtroppo la tecnologia con cui mezzo secolo fa siamo andati sulla Luna è andata perduta e non si riesce a replicarla”. È falso.

La tecnologia spaziale degli anni sessanta non è “andata perduta”, ma è diligentemente archiviata e viene tuttora consultata da chi costruisce veicoli spaziali in tutto il mondo. Ed è falso che “non si riesce a replicarla”, che vuol dire dare degli incapaci agli ingegneri aerospaziali di oggi. Si riesce eccome, ma si vogliono evitare i rischi pazzeschi che furono accettati mezzo secolo fa, e ci sono molti meno soldi, per cui si procede con grande prudenza.

Proprio a Torino, presso Thales Alenia, si progettano e costruiscono i moduli della stazione orbitale lunare per il ritorno di equipaggi sulla Luna.

Che dalle pagine di un quotidiano torinese si offenda chi studia per anni e lavora sodo per ottenere un risultato che pone Torino e l’Italia all'avanguardia nel mondo è davvero sconfortante.

Chiedo che l’articolo venga rettificato, come previsto dalla deontologia dell'Ordine dei Giornalisti e dalla dignità di una testata storica.

Se le servono fonti tecniche e documentali, sono a sua disposizione. Sono stato consulente dell’Apollo Lunar Surface Journal della NASA, di SuperQuark per la puntata dedicata al primo allunaggio, ho scritto un libro dedicato allo sbufalamento delle tesi di complotto (“Luna? Sì, ci siamo andati!”), sono traduttore personale degli astronauti Apollo e sono stato alla NASA due volte a prendere un campione di roccia lunare da portare in Italia per mostre ed eventi pubblici. In altre parole, conosco abbastanza bene la materia sulla quale Grassia pubblica con preoccupante disinvoltura falsità offensive.

Cordiali saluti

Paolo Attivissimo

Giornalista

Lugano, Svizzera

2024/07/14

Luigi Grassia su La Stampa tira fango sugli allunaggi e sull’industria aerospaziale, Italia compresa. Rispondo con i fatti

Mi avete segnalato in tanti l’articolo a firma di Luigi Grassia su La Stampa, intitolato Polemica: sulla Luna siamo andati o no? Il film “Fly me to the Moon” rilancia i dubbi.

https://www.lastampa.it/scienza/2024/07/12/news/luna_allunaggio_complottisti_film-14469791/

(copia su Archive.is)

Grassia lancia una serie di insinuazioni venendo meno a uno degli obblighi fondamentali di qualunque giornalista: documentare le proprie fonti.

Per esempio, afferma che “alcune delle foto che la Nasa ha diffuso al tempo delle missioni Apollo sono state riconosciute come false dalla stessa Nasa, che ha dovuto ritirarle”. In che occasione, quando e dove lo avrebbe riconosciuto? C’è un comunicato stampa, un documento, una dichiarazione di un portavoce? Boh. Non viene detto.

Grassia scrive che “la Nasa diffuse a suo tempo, fra migliaia di altre, una doppia versione di una foto dell’Apollo 15 sulla Luna.” Ma pagando la differenza, per l’amor del cielo, si potrebbe sapere quale sarebbe questa foto? Ogni foto degli allunaggi (ce ne sono circa ventimila) ha un numero di serie: è così difficile citarlo, così magari il lettore può andare a vedersi questa fantomatica “doppia versione”? Macché. Ci dobbiamo fidare ciecamente di quello che afferma Grassia.

L’unico indizio che l’autore dell’articolo ci concede è questa prolissa descrizione (che inficia qualunque scusa del tipo “eh ma il numero di serie della foto non ci stava nell’articolo per esigenze di spazio”):

“Nell’una e nell’altra si vede il comandante nella stessa posizione, vicino al modulo lunare e a una bandiera americana piantata al suolo. L’angolazione dell’inquadratura è la stessa e la posizione relativa dei tre soggetti astronauta-modulo-bandiera è identica. Per essere precisi, in una delle due il comandante Dave Scott ha le gambe appena un po’ più divaricate e nell’altra appena un po’ meno, quindi si tratta di due scatti differenti, ma presi in rapida successione esattamente dallo stesso punto. Infatti le due immagini del modulo lunare e della bandiera sono esattamente sovrapponibili. Eppure, sorpresa, il profilo della collina che fa da sfondo a queste due foto ufficiali è completamente diverso: in una copre tutto l’orizzonte e nell’altra circa la metà.”

La “doppia versione” della foto di Apollo 15

Quali potrebbero essere queste foto misteriose? Ho fatto una ricerca nei miei archivi: ho i cataloghi originali completi delle missioni Apollo, distribuiti su carta dalla NASA all’epoca, che fanno testo più di qualunque fonte online. Secondo questi cataloghi ufficiali, le foto della missione Apollo 15 nelle quali si vede il comandante Scott accanto al modulo lunare e alla bandiera sono cinque in tutto.

Gli astronauti lunari di quella missione, Dave Scott e Jim Irwin (il terzo, Al Worden, rimase in orbita intorno alla Luna nel veicolo principale), scattarono sulla superficie lunare ben 1151 fotografie su pellicola 70mm, in bianco e nero o a colori, usando i caricatori (magazine) etichettati SS (b/n, 171 foto); MM (b/n, 115 foto); LL (b/n, 177 foto); NN (colore, 165 foto); KK (colore, 131 foto); TT (colore, 94); WW (b/n, 164); PP (b/n, 88); OO (b/n, 46).

Facendole passare pazientemente una per una (cosa che Grassia avrebbe potuto evitarmi di fare se solo avesse citato il numero delle foto in questione) risulta che le immagini corrispondenti alla descrizione (astronauta con bandiera e modulo lunare) sono la AS15-88-11863, 11864, 11865, 11866 (caricatore TT) e la AS15-92-12444, 12445, 12446, 12447, 12448, 12449, 12450, 12451 (caricatore OO).

Ma Grassia parla di una foto di Scott, il comandante, e la tuta del comandante è riconoscibile grazie alla banda rossa sul casco, per cui possiamo escludere le foto 11864, 11865, 11866, 12444, 12445, 12446, 12447 (che mostrano Irwin, senza banda rossa sul casco). Restano quindi cinque foto candidate: 11863, 12448, 12449, 12450, 12451.

Eccole qui: vedete per caso in qualcuna di queste foto quel “profilo della collina che fa da sfondo a queste due foto ufficiali” che sarebbe “completamente diverso: in una copre tutto l’orizzonte e nell’altra circa la metà”? O semplicemente Grassia ha scritto una minchiata?

11863.
12448.
12449.
12450.
12451.

Prosegue Grassia: “La Nasa ha riconosciuto che questo è impossibile (e ci mancherebbe altro) pur avendolo fatto senza enfasi, non nell’ambito di un’autocritica generale”. Ma davvero? Dove lo avrebbe fatto? Quando? Si può avere uno straccio di fonte di questa asserita “autocritica”, o dobbiamo ancora una volta fidarci della parola di Grassia, che a quanto risulta non è particolarmente affidabile, vista la fandonia della “doppia versione” che ha appena regalato ai lettori (paganti) de La Stampa?

Le “ammissioni sporadiche”

“Ma non si è trattato di un caso isolato” scrive poi Grassia. A suo dire “ci sono state alcune altre ammissioni sporadiche di falso. Ad esempio, riguardo a un’immagine in cui una serie di riflettori si specchia inopportunamente sulla visiera di un astronauta, oppure un’altra in cui un incongruo cono di luce, tipo faretto, piove dall’alto (partendo da una misteriosa chiazza bianca) a illuminare una presunta superficie lunare.”

Si va di male in peggio: se nel caso precedente Grassia aveva perlomeno indicato la missione alla quale si riferiva, qui non indica neanche questo dato. Per cui per sapere a quali foto si riferisce dovrei farmi passare seimilacinquecento immagini. Ma anche no. Sospetto di sapere a quali foto si riferisce il giornalista, ma mi piacerebbe sapere da lui quali sono di preciso.

E ancora una volta manca completamente qualunque indicazione di dove, come o quando sarebbero state fatte queste “ammissioni”.

L’“autenticazione” della NASA

Grassia insiste: “La Nasa per ragioni sue ha autenticato alcune di queste foto, per sua ammissione successiva false, provenienti da studi fotografici allestiti sulla Terra, salvo fare marcia indietro alcuni anni dopo.”

Quali avrebbe autenticato? Dove? E dove sarebbe stata pubblicata questa “ammissione successiva”? In che anno, in che modo, da parte di chi sarebbe avvenuta questa ipotetica “marcia indietro”?

La NASA “confusa”

“Tra le foto fasulle scattate in questi studi (o ritoccate) e quelle vere fatte sulla Luna era difficile o impossibile scegliere: apparivano indistinguibili, quanto a verosimiglianza, agli occhi della stessa Nasa, che infatti si è confusa.”

Anche qui, nessuna indicazione di dove si sarebbe “confusa”. E affermare che le foto “fasulle” (che non abbiamo ancora capito quali siano) sarebbero “indistinguibili” è una fesseria tecnica assoluta. 

Primo, le condizioni di illuminazione della superficie lunare sono estremamente particolari e difficilissime da replicare sulla Terra: assenza totale di offuscamento atmosferico, per cui tutto è nitidissimo fino all’orizzonte; una singola fonte primaria di luce (il Sole), in un cielo che per il resto è nero (a parte il bagliore della Terra e quello trascurabile delle stelle). Per cui distinguere una foto fatta sulla superficie lunare reale da una foto fatta in studio è piuttosto facile per una persona competente.

Secondo, sappiamo benissimo quali sono le foto reali. Le pellicole originali sono ancora conservate e consultabili. Subito dopo le missioni, furono fatte copie per contatto dei rullini integrali (si trovano in vendita a prezzi da collezionisti). Da anni i rullini integrali sono stati scansionati e messi online. Basta guardarli per sapere se una foto è autentica oppure no.

Ma si badi bene, dice Grassia, che le sue asserzioni “sono punti fermi, non illazioni.” No, signor Grassia, sono minchiate. Mi scusi la schiettezza, ma non c’è altro termine che le definisca adeguatamente. Lei dice che la NASA si è “confusa”, ma a me viene il dubbio che la confusione stia altrove, non a Houston.

Ancora la tuta troppo luminosa e i riflessi nella visiera, che noia

Le sciocchezze complottiste presentate da Grassia proseguono con due classici intramontabili:

  • il presunto mistero di come mai la tuta di un astronauta (Aldrin, Apollo 11) sarebbe troppo illuminata e sarebbe stata “ritoccata per schiarire l’immagine dell’uomo e farla risaltare in modo che il tutto non risultasse buio” (falso, la tuta era altamente riflettente ed era illuminata dalla tuta altrettanto riflettente del fotografo, Neil Armstrong, che infatti rischiara tutto il lato in ombra del modulo lunare, come ho spiegato nel mio libro gratuito online Luna? Sì, ci siamo andati!);
  • e l’altrettanto presunto mistero del punto di inquadratura asseritamente troppo elevato in una foto della missione Apollo 12 che mostra gli astronauti riflessi nelle rispettive visiere riflettenti: chi se la sente di spiegare a Grassia come funziona uno specchio curvo?

Scusate se non mi dilungo a spiegare di nuovo tutti questi “misteri”; l’ho già fatto troppe volte e mi fa davvero tristezza vedere così tanta ignoranza dei concetti di base della fisica e di come funziona il mondo che ci circonda. Di questo passo, dovrei mettermi a spiegare che la Terra non è piatta e che le mucche lontane sembrano piccole perché sono lontane, non perché sono mucche nane (Father Ted).

La minchiata finale è un insulto a tutta l’industria aerospaziale, anche italiana

Va be', magari pensate che io me la prenda troppo. Chissenefrega se sulla Luna ci siamo andati o no 55 anni fa, ci sono problemi più attuali e importanti, direte voi. La gente sulla quale i complottisti e i disinformati come Grassia tirano disinvoltamente fango, dall’alto della loro incompetenza arrogante, è quasi tutta morta. Dei dodici uomini che hanno camminato sulla Luna ne restano in vita solo quattro (Scott, Duke, Schmitt, Aldrin). Tanti dei protagonisti di quell’epoca ci hanno lasciato. Per cui non avete tutti i torti.

Ma quello che mi rode è soprattutto lo schiaffo, l’insulto a tutti coloro che oggi lavorano nell’industria aerospaziale, comprese le tante aziende italiane, come Thales Alenia, che stanno lavorando adesso alla costruzione di una stazione orbitale lunare e a veicoli per tornare sulla Luna con equipaggi. Gente che secondo Grassia è invece inetta e incapace, a giudicare da questa sua frase: “purtroppo la tecnologia con cui mezzo secolo fa siamo andati sulla Luna è andata perduta e non si riesce a replicarla”.

No, caro collega. Prima di tutto, la tecnologia spaziale degli anni sessanta non è “andata perduta”, ma è diligentemente archiviata e viene tuttora consultata da chi costruisce veicoli spaziali in tutto il mondo. Ed è falso che “non si riesce a replicarla”, che vuol dire dare dei coglioni incapaci agli ingegneri aerospaziali di oggi. Si riesce eccome, ma si vogliono evitare i rischi pazzeschi che furono accettati mezzo secolo fa, e ci sono molti meno soldi, per cui si procede con grande prudenza. La capsula Orion che riporterà gli equipaggi umani verso la Luna ha già volato. Il progetto Artemis procede; solennemente, ma procede. Elon Musk lancia razzi supergiganti destinati alla Luna. Ma mi sa che Grassia non se n’è accorto, preso com’era a guardare i profili delle colline.

2024/07/04

Che ci fa il Disinformatico su un terminale Videotel degli anni 80?

A proposito degli anacronismi tecnologici (apparenti) di cui ho parlato nel podcast del 28 giugno scorso, ecco un recente post di questo mio blog visualizzato sullo schermo di un terminale Videotel, di quelli che divennero operativi in Italia intorno alla metà degli anni Ottanta e che quindi si apprestano a compiere quarant’anni.

No, non sono immagini generate tramite fotomontaggio o intelligenza artificiale: sono foto reali.


Se volete sapere come è possibile un’immagine del genere, è tutta merito dell’amico Francesco Sblendorio di Retrocampus.com, dedicato al retrocomputing e all’archeologia informatica. 

Fra le altre cose, Francesco ha realizzato il software della BBS di Retrocampus, con la quale si può interagire sia via Web (bbs.retrocampus.com) sia via modem (+39 0522750051) e si può usare anche un’interfaccia in stile Minitel/Videotel presso minitel.retrocampus.com. Le istruzioni dettagliate sono sul Patreon di Francesco insieme a un riassunto dei principali progetti di Retrocampus e dei servizi offerti (e resi possibili dal sostegno degli utenti).

Retrocampus è anche su Instagram (@retrocampus.bbs). Buon divertimento!

2024/06/28

Podcast RSI - NASA, monitor giganti, piatti e a colori 60 anni fa. Con tecnologia svizzera

logo del Disinformatico

Ultimo aggiornamento: 2024/07/01 16:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

Questa è l’ultima puntata prima della pausa estiva: il podcast tornerà il 19 luglio.

---

Gli appassionati di archeologia misteriosa li chiamano OOPART: sono gli oggetti fuori posto, o meglio fuori tempo. Manufatti che si suppone non potessero esistere nell’epoca a cui vengono datati e la cui esistenza costituirebbe un anacronismo. Immaginate di trovare una lavastoviglie o uno schema di sudoku dentro una tomba egizia mai aperta prima: sarebbe un OOPART. In realtà i presunti OOPART segnalati finora hanno tutti spiegazioni normali ma comunque affascinanti.

In informatica, invece, esiste uno di questi OOPART davvero difficile da spiegare. Questo oggetto apparentemente fuori dal tempo è un monitor gigante per computer, a colori, ultrapiatto, ad altissima risoluzione, che misura ben tre metri per sette ed è perfettamente visibile in piena luce. Prestazioni del genere oggi sono notevoli, ma si tratta di un manufatto che risale a sessant’anni fa, quando i monitor erano fatti con i tubi catodici, pesantissimi e ingombrantissimi.

La cosa buffa è che questo anacronismo extra large è sotto gli occhi di tutti, ma oggi nessuno ci fa caso. È il monitor gigante che si vede sempre nei documentari e nei film dedicati alle missioni spaziali: il mitico megaschermo del Controllo Missione.

13 aprile 1970. Il Controllo Missione durante una diretta TV trasmessa dal veicolo spaziale Apollo 13. A sinistra si vede lo schermo gigante a colori in alta risoluzione. A destra, la videoproiezione Eidophor a colori (NASA).

Come è possibile che la NASA avesse già, sei decenni fa, una tecnologia che sarebbe arrivata quasi trent’anni più tardi? Tranquilli, gli alieni non c’entrano, ma se chiedete anche ai tecnici del settore e agli informatici come potesse esistere un oggetto del genere a metà degli anni Sessanta, probabilmente non sanno come rispondere.

Questa è la strana storia di questo oggetto a prima vista impossibile e di una serie di tecnologie folli e oggi dimenticate, a base di olio viscoso, dischi rotanti e puntine di diamante, nelle quali c’è di mezzo un notevole pizzico di Svizzera. Se il nome Fritz Fischer e la parola Eidophor non vi dicono nulla, state per scoprire una pagina di storia della tecnologia che non è solo un momento nerd ma è anche una bella lezione di come l’ingegno umano sa trovare soluzioni geniali a problemi in apparenza irrisolvibili.

Benvenuti alla puntata del 28 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Un oggetto impossibile

Se siete fra i tanti che in questo periodo stanno acquistando un televisore ultrapiatto gigante in alta definizione, forse vi ricordate di quando lo schermo televisivo più grande al quale si potesse ambire a livello domestico era un 32 pollici, ossia uno schermo che misurava in diagonale circa 80 centimetri, ed era costituito da un ingombrantissimo, costosissimo e pesantissimo tubo catodico, racchiuso in un mobile squadrato e profondo che troneggiava nella stanza.* Sì, c’erano anche i videoproiettori, ma quelli erano ancora più costosi e ingombranti. Magari avete notato questi strani scatoloni nei film di qualche decennio fa. Oggi, invece, è normale avere schermi ultrapiatti, con una diagonale tre volte maggiore, che sono così sottili che si appoggiano contro una parete.

* Nel 1989 la Sony presentò in Giappone il televisore a tubo catodico Trinitron più grande mai realizzato, il KV-45ED1 o PVM-4300 (43 pollici, 225 kg, 40.000 dollari in USA).

Eppure alla NASA, a metà degli anni Sessanta, su una parete del Controllo Missione che gestiva i lanci spaziali verso la Luna, c’erano non uno ma ben cinque megaschermi perfettamente piatti, nitidissimi, con colori brillanti, visibili nonostante le luci accese in sala. Il più grande di questi schermi misurava appunto tre metri di altezza per sette di larghezza. La risoluzione di questi monitor era talmente elevata che si leggevano anche i caratteri più piccoli delle schermate tecniche e dei grafici che permettevano agli addetti di seguire in dettaglio le varie fasi dei voli spaziali.

Per fare un paragone, maxischermi come il Jumbotron di Sony o i Diamond Vision di Mitsubishi arriveranno e cominceranno a essere installati negli stadi e negli spazi pubblicitari solo negli anni Ottanta,* e comunque non avranno la nitidezza di questi monitor spaziali della NASA.** Certo, al cinema c’erano dimensioni e nitidezze notevoli e anche superiori, soprattutto con i grandi formati come il 70 mm, ma si trattava di proiezioni di pellicole preregistrate, mentre qui bisognava mostrare immagini e grafici in tempo reale. I primi monitor piatti, con schermi al plasma, risalgono anch’essi agli anni Ottanta ed erano installati nei computer portatili di punta dell’epoca, ma non raggiungevano certo dimensioni da misurare in metri e in ogni caso erano monocromatici.

* Sony è famosa per il suo Jumbotron, ma fu battuta sul tempo dalla Mitsubishi Electric, i cui megaschermi Diamond Vision furono prodotti per la prima volta nel 1980. Il primo esemplare, basato su CRT (tubi catodici) compatti a tre colori (rosso, blu e verde) fu installato a luglio dello stesso anno al Dodger Stadium di Los Angeles e misurava 8,7m x 5,8 m (Mitsubishi Electric).

** Un Jumbotron da 10 metri aveva una risoluzione di soli 240 x 192 pixel.

I primi schermi piatti a colori arriveranno addirittura trent’anni dopo quelli della NASA, nel 1992, e saranno ancora a bassa risoluzione. Il primo televisore a schermo piatto commercialmente disponibile sarà il Philips 42PW9962 (un nome facilissimo da ricordare), classe 1995, che misurerà 107 centimetri di diagonale e avrà una risoluzione modestissima, 852 x 480 pixel, che oggi farebbe imbarazzare un citofono. Costerà ben 15.000 dollari dell’epoca. Oggi dimensioni diagonali di 98 pollici (cioè due metri e mezzo) e risoluzioni dai 4K in su (ossia 3840 x 2160 pixel) sono commercialmente disponibili a prezzi ben più bassi.

Insomma, quella tecnologia usata dall’ente spaziale statunitense sembra davvero fuori dal tempo, anacronistica, impossibile. Però esisteva, e le foto e i filmati di quegli anni mostrano questi schermi all’opera, con colori freschissimi e dettagli straordinariamente nitidi, nella sala ben illuminata del Controllo Missione.

Per capire come funzionavano bisogna fare un salto a Zurigo.

Eidophor, il videoproiettore a olio

Per proiettare immagini televisive, quindi in tempo reale, su uno schermo di grandi dimensioni, negli anni Sessanta del secolo scorso esisteva una sola tecnologia: andava sotto il nome di Eidophor ed era un proiettore speciale, realizzato dalla Gretag AG di Regensdorf.

Era questo apparecchio che mostrava le immagini che arrivavano dallo spazio e dalla Luna ai tecnici del Controllo Missione di Houston, e si trattava di un marchingegno davvero particolare, concepito dall’ingegner Fritz Fischer, docente e ricercatore presso il Politecnico di Zurigo, dove lo aveva sviluppato addirittura nel 1939 [brevetto US 2,391,451], presentando il primo esemplare sperimentale nel 1943. Se ve lo state chiedendo, il nome Eidophor deriva da parole greche che significano grosso modo “portatore di immagini”.

Questo proiettore usava un sistema ottico simile a quello di un proiettore per pellicola, ma al posto della pellicola c‘era un disco riflettente che girava lentamente su se stesso. Questo disco era ricoperto da un velo di olio trasparente ad alta viscosità, sul quale un fascio collimato e pilotato di elettroni depositava delle cariche elettrostatiche che ne deformavano la superficie.

Uno specchio composto da strisce riflettenti alternate a bande trasparenti proiettava la luce intensissima di una lampada ad arco su questo velo di olio, e solo le zone del velo che erano deformate dal fascio di elettroni riflettevano questa luce verso lo schermo, permettendo di disegnare delle immagini in movimento.

Schema di funzionamento del velo d’olio e dello specchio a strisce, tratto da Eidophor – der erste Beamer, Ngzh.ch, 2018.

Lo so, sembra una descrizione molto steampunk. E come tanta tecnologia della cultura steampunk, anche l’Eidophor era grosso, ingombrante e difficile da gestire. Usarlo richiedeva la presenza di almeno due tecnici e un’alimentazione elettrica trifase, e se il velo d’olio si contaminava l’immagine prodotta veniva danneggiata. Però la sua tecnologia completamente analogica funzionava e permetteva di mostrare immagini televisive in diretta, inizialmente in bianco e nero e poi a colori, su schermi larghi fino a 18 metri.

Nel 1953 l’Eidophor fu presentato negli Stati Uniti in un prestigioso cinema di New York, su iniziativa della casa cinematografica 20th Century Fox, che sperava di installarne degli esemplari in centinaia di sale per mostrare eventi sportivi o spettacoli in diretta, ma non se ne fece nulla, perché l’ente statunitense di regolamentazione delle trasmissioni non concesse le frequenze televisive necessarie per la diffusione.

Negli anni Sessanta le emittenti televisive di tutto il mondo cominciarono a usare questi Eidophor come sfondi per i loro programmi, specialmente nei telegiornali e per le cronache degli eventi sportivi. Fra i clienti di questa invenzione svizzera ci furono anche il Pentagono, per applicazioni militari, e appunto la NASA, che ne installò ben trentaquattro esemplari nella propria sede centrale per mostrare le immagini dei primi passi di esseri umani sulla Luna a luglio del 1969. 


Un Eidophor EP 6 chiuso e aperto. Era alto 1,97 metri, largo 1,45 e profondo 1,05 (Nationalmuseum.ch).

Gli Eidophor della NASA furono modificati in modo da avere una risoluzione quasi doppia rispetto allo standard televisivo normale, 945 linee orizzontali invece delle 525 standard, rendendo così leggibili anche i caratteri più piccoli delle schermate di dati. In pratica la NASA aveva dei megaschermi HD negli anni Sessanta grazie a questa tecnologia svizzera, che fra l’altro piacque anche ai rivali sovietici, che installarono degli Eidophor anche nel loro centro di lancio spaziale.

Ma per lo schermo gigante centrale della NASA neppure l’Eidophor era all’altezza dei requisiti. Per quelle immagini ultranitide a colori era necessario ricorrere ai diamanti e alla Bat-Caverna.

Diamanti e Bat-Caverne

Anche in questo caso la tecnologia analogica fece acrobazie notevolissime. Lo schermo usava una batteria di ben sette proiettori, alloggiati in una enorme sala completamente dipinta di nero e battezzata “Bat-Caverna” dai tecnici che ci lavoravano.

Schema del sistema di proiezione, che mostra i grandi specchi usati per deviare i fasci di luce dei proiettori e ridurre così le dimensioni della sala tecnica.

Questi proiettori usavano lampade allo xeno, la cui luce potentissima illuminava delle diapositive e le proiettava su grandi lastre di vetro semitrasparente, che costituivano gli schermi veri e propri. Ma il calore di queste lampade avrebbe fuso o sbiadito in fretta qualunque normale diapositiva su pellicola, e i grafici dovevano invece restare sullo schermo per ore.

Così i tecnici si inventarono delle diapositive molto speciali, composte da lastrine di vetro ricoperte da un sottilissimo strato opaco di metallo. Su queste diapositive si disegnavano in anticipo le immagini da mostrare, incidendole direttamente nel metallo, un po’ come si fa per i circuiti stampati. Il metallo rimosso lasciava passare la luce, e poi dei filtri colorati permettevano di tingere la luce proiettata sullo schermo.

Questo permetteva di avere grafici e immagini di grandissima nitidezza, ben oltre qualunque risoluzione di monitor dell’epoca, e risolveva il problema delle immagini statiche, per esempio quella del globo terrestre o di un grafico di traiettoria o dei consumi di bordo del veicolo spaziale. Ma non risolveva il problema di aggiornare quei grafici con i dati di telemetria che provenivano dallo spazio e dai centri di calcolo della NASA.

Dettaglio di una porzione del megaschermo principale del Controllo Missione.

La soluzione ingegnosa, anche in questo caso fortemente analogica, fu montare alcuni di questi sette proiettori su un supporto che permetteva di orientarli. Questi proiettori avevano delle diapositive metalliche nelle quali c’era incisa la sagoma dei vari veicoli spaziali da seguire, e il loro puntamento era comandato dai dati che arrivavano dal centro di calcolo della NASA [l’adiacente Real-Time Computer Complex, descritto in italiano qui da Tranquility Base], pieno di grandi computer IBM 360, che elaboravano i dati trasmessi dal veicolo spaziale. In pratica, invece di aggiornare l’intera immagine come si fa con i normali monitor, veniva semplicemente spostata la diapositiva che raffigurava il veicolo e lo sfondo restava fisso.

Ma i grafici e le traiettorie andavano disegnati e aggiornati man mano, e quindi questo trucco di spostare la sagomina, per così dire, non bastava. Così la NASA adottò un trucco ancora più elegante: una testina di diamante, simile alle puntine dei giradischi, comandata da dei servomotori sugli assi X e Y, incideva la diapositiva, rimuovendo lo strato metallico opaco e facendo passare la luce del proiettore attraverso la zona incisa.

Sì, le immagini venivano letteralmente incise, formando simpatici truciolini metallici, spazzati via da delle potenti ventole. Quindi quando vedete nei documentari di quel periodo che il tracciato grafico della traiettoria di un veicolo spaziale si aggiorna, è perché la diapositiva veniva grattata. Semplice ed efficace, anche se ovviamente non era possibile rifare e correggere.

Sono tutte tecniche in apparenza semplici, una volta che qualcuno le ha escogitate, ma soprattutto sono tecniche che rivelano una lezione troppo spesso dimenticata nell’informatica di oggi: invece di usare potenza di calcolo a dismisura e risolvere tutto con il software per forza bruta, conviene esaminare bene il problema e capire prima di tutto quali sono i requisiti effettivi del progetto.

Nel caso della NASA, quei monitor dovevano mostrare in altissima risoluzione solo immagini statiche con pochi elementi in movimento, per cui non era necessario un approccio “televisivo”, nel quale l’immagine intera viene aggiornata continuamente. Per le immagini televisive vere e proprie c’era l’Eidophor; per tutto il resto bastavano diapositive metalliche e una puntina di diamante che le grattasse.

Sarebbe bello vedere applicare questi principi, per esempio, all’intelligenza artificiale. Il modello di oggi delle IA è forza bruta, con impatti energetici enormi. Ma ci sono soluzioni più eleganti ed efficienti. Per esempio, se si tratta di fare riconoscimento di immagini di telecamere di sorveglianza, non ha senso fare come si fa oggi, ossia mandare le immagini a un centro di calcolo remoto e poi farle analizzare lì da un’intelligenza artificiale generalista; conviene invece fare l'analisi sul posto, a bordo della telecamera, con una IA fatta su misura, che consuma infinitamente meno e rispetta molto di più la privacy.

Ma per ora, purtroppo, si preferisce la forza bruta.


Fonti: Large screen display for the Mission Control Center, NASA, 1989; Plasma display, Wikipedia; How Does a Jumbotron Work?, ThoughtCo, 2019; Watch those men on the Moon, ETHZ.ch, 2019; Der Eidophor-Projektor, ETHZ.ch; Viel Licht für grosse Leinwände – Der Eidophor, ETHZ.ch, 2015; Handwiki.orgEidophor – der erste Beamer, Ngzh.ch, 2018; Apollo Flight Controller 101: Every console explained, Ars Technica, 2019.

2024/06/21

Podcast RSI - Arte avvelenata contro l’intelligenza artificiale

logo del Disinformatico

Pubblicazione iniziale: 2024/06/21 7:12. Ultimo aggiornamento: 2024/07/04 16:15.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

[CLIP: La scena del libro avvelenato da “Il Nome della Rosa”]

Le intelligenze artificiali generative, quelle alle quali si può chiedere di generare un’immagine imitando lo stile di qualunque artista famoso, sono odiatissime dagli artisti, che già da tempo le accusano di rubare le loro opere per imparare a imitarle, rovinando il mercato e sommergendo le opere autentiche in un mare di imitazioni mediocri. La stessa cosa sta succedendo adesso anche con i film: software come il recentissimo Dream Machine creano video sfacciatamente ispirati, per non dire copiati, dai film d’animazione della Pixar.

Le società che operano nel settore dell’intelligenza artificiale stanno facendo soldi a palate, ma agli artisti di cui imitano il lavoro non arriva alcun compenso. Pubblicare una foto, un’illustrazione o un video su un sito o sui social network, come è normale fare per farsi conoscere, significa quasi sempre che quell’opera verrà acquisita da queste società. E questo vale, oltre che per le immagini di fotografi e illustratori, anche per le nostre foto comuni.

Ma ci sono modi per dire di no a tutto questo. Se siete artisti e volete sapere come impedire o almeno limitare l’abuso delle vostre opere, o se siete semplicemente persone che vogliono evitare che le aziende usino le foto che avete scattato per esempio ai vostri figli, potete opporvi almeno in parte a questo trattamento. E nei casi peggiori potete addirittura mettere del veleno digitale nelle vostre immagini, così le intelligenze artificiali che le sfoglieranno ne verranno danneggiate e non le potranno usare, un po’ come nel romanzo e nel film Il nome della rosa di cui avete sentito uno spezzone in apertura.

Vi interessa sapere come si fa? Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Questa è la puntata del 21 giugno 2024. Benvenuti. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Reclutati a forza

I generatori di immagini basati sull’intelligenza artificiale sono diventati estremamente potenti e realistici nel giro di pochissimo tempo. Il problema è che questi generatori sono stati creati, o più precisamente addestrati, usando le immagini di moltissimi artisti, senza il loro consenso e senza riconoscere loro alcun compenso.

Ogni intelligenza artificiale, infatti, ha bisogno di acquisire enormi quantità di dati. Una IA concepita per generare testi deve leggere miliardi di pagine di testo; una IA pensata per generare immagini deve “guardare”, per così dire, milioni di immagini, e così via. Il problema è che questi dati spesso sono presi da Internet in maniera indiscriminata, senza chiedere permessi e senza dare compensi.

Gli artisti dell’immagine, per esempio grafici, illustratori, fotografi e creatori di video, normalmente pubblicano le proprie opere su Internet, specialmente nei social network, per farsi conoscere, e quindi anche i loro lavori vengono acquisiti dalle intelligenze artificiali.

Il risultato di questa pesca a strascico è che oggi è possibile chiedere a un generatore di immagini di creare una foto sintetica o un’illustrazione nello stile di qualunque artista, per esempio un uomo in bicicletta nello stile di Gustav Klimt, di Raffaello, di Andy Warhol o dei mosaicisti bizantini, e si ottiene in una manciata di secondi un’immagine che scimmiotta il modo di disegnare o dipingere o creare mosaici o fare fotografie di quegli artisti. In alcuni casi si può addirittura inviare a questi generatori un’immagine autentica creata da uno specifico artista e chiedere di generarne una versione modificata. E lo si può fare anche per gli artisti ancora in vita, che non sono per nulla contenti di vedere che un software può sfornare in pochi istanti migliaia di immagini che scopiazzano le loro fatiche.

DALL-E 3 cerca di imitare lo stile di Klimt.
DALL-E 3 genera questa immagine di un uomo in bicicletta nello stile dei mosaicisti bizantini.
DALL-E 3 cerca di imitare lo stile di Raffaello.

Sono imitazioni spesso grossolane, che non ingannerebbero mai una persona esperta ma che sono più che passabili per molti utenti comuni, che quindi finiscono per non comperare gli originali. Per gli artisti diventa insomma più difficile guadagnarsi da vivere con la propria arte, e quello che è peggio è che i loro mancati ricavi diventano profitti per aziende stramiliardarie.

Inoltre pochi giorni fa è stato presentato il software Dream Machine, che permette di generare brevi spezzoni di video partendo da una semplice descrizione testuale, come fa già Sora di OpenAI, con la differenza che Sora è riservato agli addetti ai lavori, mentre Dream Machine è pubblicamente disponibile. Gli esperti hanno notato ben presto che nei video dimostrativi di Dream Machine non c’è solo un chiaro riferimento allo stile dei cartoni animati della Pixar: c’è proprio Mike Wazowski di Monsters & Co, copiato di peso.

Un video realizzato con Dream Machine, chiaramente ispirato ai personaggi di Monsters & Co.
Fotogramma tratto dal video, a 0:57 circa. Wazowski è ben visibile a sinistra dello zucchero filato.

Sarà interessante vedere come la prenderà la Disney, che detiene i diritti di questi personaggi e non è mai stata particolarmente tenera con chi viola il suo copyright.

Il problema delle immagini acquisite senza consenso dalle intelligenze artificiali riguarda anche le persone comuni che si limitano a fare foto di se stessi o dei propri figli. L’associazione Human Rights Watch, ai primi di giugno, ha segnalato che negli archivi di immagini usati per addestrare le intelligenze artificiali più famose si trovano foto di bambini reali, tratte dai social network, con tanto di nomi e cognomi che li identificano. Questi volti possono quindi riemergere nelle foto sintetiche illegali di abusi su minori, per esempio.

Il problema, insomma, è serio e tocca tutti. Vediamo quali sono le soluzioni.

Fermate il mondo, voglio scendere

Togliere tutte le proprie immagini da Internet, o non pubblicarle affatto online, è sicuramente una soluzione drasticamente efficace, in linea di principio, ma in concreto è una strada impraticabile per la maggior parte delle persone e soprattutto per gli artisti e i fotografi, per i quali Internet è da sempre la vetrina che permette loro di farsi conoscere e di trovare chi apprezza le loro creazioni. E comunque ci sarà sempre qualcuno che le pubblicherà online, quelle immagini, per esempio nelle versioni digitali delle riviste o dei cataloghi delle mostre.

Un altro approccio che viene facilmente in mente è il cosiddetto watermarking: la sovrapposizione di diciture semitrasparenti che mascherano in parte l’immagine ma la lasciano comunque visibile, come fanno le grandi aziende di immagini stock, per esempio Getty Images, Shutterstock o Adobe. Ma le intelligenze artificiali attuali sono in grado di ignorare queste diciture, per cui questa tecnica è un deterrente contro la pubblicazione non autorizzata ma non contro l’uso delle immagini per l’addestramento delle IA.

Va un po’ meglio se si usa il cosiddetto opt-out: l’artista manda un esemplare della propria foto o illustrazione ai grandi gestori di intelligenze artificiali e chiede formalmente che quell’immagine sia esclusa d’ora in poi dall’addestramento o training dei loro prodotti. Lo si può fare per esempio per DALL-E 3 di OpenAI, che viene usato anche dai generatori di immagini di Microsoft, oppure per Midjourney e Stability AI, mandando una mail agli appositi indirizzi. Lo si può fare anche per le intelligenze artificiali gestite da Meta, ma con molte limitazioni e complicazioni. Trovate comunque tutti i link a queste risorse su Disinformatico.info.

Il problema di questa tecnica di opt-out è che è tediosissima: in molti casi richiede infatti che venga inviato a ogni gestore di generatori di immagini un esemplare di ogni singola illustrazione o foto da escludere, e quell’esemplare va descritto in dettaglio. Se un artista ha centinaia o migliaia di opere, come capita spesso, segnalarle una per una è semplicemente impensabile, ma è forse fattibile invocare questa esclusione almeno per le immagini più rappresentative o significative dello stile di un artista o di un fotografo.

C’è anche un’altra strada percorribile: pubblicare le proprie immagini soltanto sul proprio sito personale o aziendale, e inserire nel sito del codice che dica a OpenAI e agli altri gestori di intelligenze artificiali di non sfogliare le pagine del sito e quindi di non acquisire le immagini presenti in quelle pagine.

In gergo tecnico, si inserisce nel file robots.txt del proprio sito una riga di testo che vieta l’accesso al crawler di OpenAI e compagni. Anche in questo caso, le istruzioni per OpenAI e per altre società sono disponibili su Disinformatico.info [le istruzioni per OpenAI sono qui; quelle per altre società sono qui].

[2024/06/25 11:30: In alcuni casi si può anche bloccare il range di indirizzi IP di ChatGPT. In questo modo non serve chiedere per favore, come nel caso di robot.txt, ma si blocca e basta]

Si può anche tentare la cosiddetta segmentazione: in pratica, le immagini non vengono pubblicate intatte, ma vengono suddivise in porzioni visualizzate una accanto all’altra, un po’ come le tessere di un mosaico, per cui le intelligenze artificiali non riescono a “vedere”, per così dire, l’immagine completa, mentre una persona la vede perfettamente. Uno dei siti che offrono questo approccio è Kin.art.

Tutti questi metodi funzionano abbastanza bene: non sono rimedi assoluti, ma perlomeno aiutano a contenere il danno escludendo le principali piattaforme di generazione di immagini. Tuttavia sono molto onerosi, e ci sarà sempre qualche start-up senza scrupoli che ignorerà le richieste di esclusione o troverà qualche modo di eludere questi ostacoli. Sarebbe bello se ci fosse un modo per rendere le proprie immagini inutilizzabili dalle intelligenze artificiali in generale, a prescindere da dove sono pubblicate.

Quel modo c’è, ed è piuttosto drastico: consiste nell’iniettare veleno digitale nelle proprie creazioni.

Veleno digitale: IA contro IA

Parlare di veleno non è un’esagerazione: il termine tecnico per questo metodo è infatti data poisoning, che si traduce con “avvelenamento dei dati”. In pratica consiste nell’alterare i dati usati per l’addestramento di un’intelligenza artificiale in modo che le sue elaborazioni diano risultati errati o completamente inattendibili.

Nel caso specifico della protezione delle proprie immagini, il data poisoning consiste nel modificare queste immagini in modo che contengano alterazioni che non sono visibili a occhio nudo ma che confondono o bloccano completamente il processo di addestramento di un’intelligenza artificiale. Semplificando, l’intelligenza artificiale acquisisce una foto del vostro gatto, ma grazie a queste alterazioni la interpreta come se fosse la foto di un cane, di una giraffa o di una betoniera, anche se all’occhio umano si tratta chiaramente della foto di un bellissimo gatto.

Ci sono programmi appositi per alterare le immagini in questo modo: Glaze e Nightshade, per esempio, sono gratuiti e disponibili per Windows e macOS. Richiedono parecchia potenza di calcolo e svariati minuti di elaborazione per ciascuna immagine, ma è possibile dare loro un elenco di immagini e farle elaborare tutte automaticamente. Non sono infallibili, e alcune aziende di intelligenza artificiale adottano già tecniche di difesa contro queste alterazioni. Ma nella maggior parte dei casi queste tecniche consistono semplicemente nell’ignorare qualunque immagine che contenga indicatori di queste alterazioni, per cui se il vostro scopo è semplicemente evitare che le vostre immagini vengano incluse nell’addestramento di un’intelligenza artificiale, Glaze e Nightshade vanno benissimo.

Trilli, la gatta del Maniero Digitale, in versione normale...
...e in versione “avvelenata” con Glaze.

Mist è un altro programma di questo tipo, ma invece di alterare le immagini in modo che la IA le interpreti in modo completamente errato le modifica in una maniera speciale che fa comparire una sorta di watermark o sovrimpressione decisamente sgradevole, una sorta di velo di geroglifici, in ogni immagine generata partendo da immagini trattate con Mist, che come i precedenti è gratuito e disponibile per macOS e Windows e richiede una scheda grafica piuttosto potente e tempi di elaborazione significativi.

C’è una sottile ironia nell’usare software basati sull’intelligenza artificiale per sconfiggere le aziende basate sull’intelligenza artificiale, ma in tutta questa rincorsa fra guardie e ladri non bisogna dimenticare che questi software consumano quantità preoccupanti di energia per i loro calcoli straordinariamente complessi: a gennaio 2024, l’Agenzia Internazionale dell’Energia (IEA) ha pubblicato una stima secondo la quale il 4% della produzione di energia mondiale nel 2026 sarà assorbito dai data center, dalle criptovalute e dall’intelligenza artificiale. Per dare un’idea di cosa significhi, il 4% equivale al consumo energetico di tutto il Giappone.*

* “Electricity consumption from data centres, artificial intelligence (AI) and the cryptocurrency sector could double by 2026. Data centres are significant drivers of growth in electricity demand in many regions. After globally consuming an estimated 460 terawatt-hours (TWh) in 2022, data centres’ total electricity consumption could reach more than 1 000 TWh in 2026. This demand is roughly equivalent to the electricity consumption of Japan” (pag. 8).

La stessa agenzia ha calcolato che una singola ricerca in Google consuma 0,3 wattora di energia elettrica [dato risalente al 2009, probabilmente migliorato da allora], mentre una singola richiesta a ChatGPT ne consuma 2,9, ossia quasi dieci volte di più. Per fare un paragone, se tutti usassero ChatGPT invece di Google per cercare informazioni, la richiesta di energia aumenterebbe di 10 terawattora l’anno, pari ai consumi annui di un milione e mezzo di europei.*

* “Search tools like Google could see a tenfold increase of their electricity demand in the case of fully implementing AI in it. When comparing the average electricity demand of a typical Google search (0.3 Wh of electricity) to OpenAI’s ChatGPT (2.9 Wh per request), and considering 9 billion searches daily, this would require almost 10 TWh of additional electricity in a year.“ (pag. 34, che cita come fonte l’articolo accademico del 2023 The growing energy footprint of artificial intelligence di Alex De Vries su Joule, https://doi.org/10.1016/j.joule.2023.09.004).
Il dato di 0,1 Wh (1 kJ) è citato da Google in questo post del 2009: “Together with other work performed before your search even starts (such as building the search index) this amounts to 0.0003 kWh of energy per search, or 1 kJ. For comparison, the average adult needs about 8000 kJ a day of energy from food, so a Google search uses just about the same amount of energy that your body burns in ten seconds. In terms of greenhouse gases, one Google search is equivalent to about 0.2 grams of CO2. The current EU standard for tailpipe emissions calls for 140 grams of CO2 per kilometer driven, but most cars don't reach that level yet. Thus, the average car driven for one kilometer (0.6 miles for those in the U.S.) produces as many greenhouse gases as a thousand Google searches.”
FullFact ha svolto una ricerca sull’argomento e non ha trovato dati più recenti, ma nota che “Google told us that since then it has made its data centres more energy efficient. We also spoke to Yannick Oswald, a PhD researcher in energy footprints at the University of Leeds who told us that if the energy consumption of a Google search has changed since 2009, it’s most likely to have decreased due to improvements in energy efficiency”.
Il confronto con il consumo degli utenti europei è tratto da questo articolo di Vox di marzo 2024.

Pensateci, la prossima volta che invece di usare un motore di ricerca vi affidate a un’intelligenza artificiale online.


Fonti aggiuntive: How to keep your art out of AI generators, The Verge; How watermarks can help protect against fraud with generative AI like ChatGPT, Fast Company.

2024/06/14

Podcast RSI - Instagram, l’etichetta “Creato con IA” fa infuriare i fotografi veri; aggiornamento su Windows Recall

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Se siete fra i due miliardi e mezzo di utenti di Instagram, probabilmente avete notato che da qualche settimana alcune fotografie postate su questo social network sono accompagnate da una piccola dicitura: nella versione italiana, questa dicitura è “Creato con IA”, dove “IA” ovviamente sta per l’immancabile, onnipresente intelligenza artificiale.

Gli hater dell’intelligenza artificiale – sì, esistono e sono numerosi e anche inviperiti – vedono questa etichetta sulle fotografie di luoghi e persone pubblicate su Instagram e lasciano commenti livorosi in cui accusano chi le ha postate di essere un bugiardo, perché secondo loro l’etichetta dimostra che si tratta di falsi creati appunto con l’intelligenza artificiale. E gli autori delle foto in questione si sgolano, invano, cercando di dimostrare che le loro foto sono autentiche, scattate davvero sul luogo e con soggetti e persone reali. Niente da fare: l’etichetta “Creato con IA” li condanna. Fotografi professionisti celebri si vedono screditati di colpo da queste tre brevi parole.

Questa è la storia strana di una iniziativa di Meta, proprietaria di Instagram, partita con l’intento di fare chiarezza nel caos delle immagini sintetiche spacciate per vere che stanno intasando questo social network. Quell’intento si è trasformato in un autogol, che sta facendo infuriare i fotografi che avrebbe dovuto proteggere. E fra quei fotografi, e fra quegli accusati, potreste trovarvi anche voi.

Se volete saperne di più e conoscere come difendervi da questi nuovi hater, siete nel posto giusto: benvenuti! Questa è la puntata del 14 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Recall richiamato

Prima di tutto devo fare un aggiornamento a una delle notizie che ho segnalato nel podcast precedente, ossia l’introduzione in Windows 11 di un nuovo servizio, chiamato Recall, che in sostanza registra localmente tutto quello che passa sullo schermo, con ovvi problemi di privacy. Poco dopo la chiusura della puntata, Microsoft ha reagito al clamore mediatico prodotto dall’annuncio di Recall e ha risposto in parte alle preoccupazioni degli esperti, modificando il funzionamento del servizio.

Mentre prima Recall era attivo per impostazione predefinita e toccava all’utente scoprire come disattivarlo, d’ora in poi sarà attivato solo se l’utente accetterà la proposta di attivazione, che comparirà durante la configurazione iniziale del computer (The Verge). Restano ancora valide tutte le considerazioni di privacy e di sicurezza che sono state segnalate dagli esperti per chi decide di attivare Recall, ma perlomeno adesso è più facile e naturale per l’utente rifiutare questo servizio.

Colgo l’occasione per precisare anche un altro dettaglio importante: per il momento, Recall viene installato ed è disponibile soltanto sui computer di tipo Copilot+ dotati di processore ARM e processore neurale o NPU, che sono una decina di modelli di varie marche. Chi ha un computer meno recente di questi non si vedrà proporre l’attivazione di Recall. Almeno per ora, perché Microsoft ha dichiarato di voler fornire supporto anche per i computer con processori AMD e Intel, che sono i più diffusi. Staremo a vedere.

Instagram e l’etichetta “Creato con IA”

Da qualche settimana Instagram ha iniziato ad aggiungere automaticamente ai post una dicitura che avvisa gli utenti che un’immagine postata è stata creata usando prodotti basati sull’intelligenza artificiale. In italiano questa dicitura è “Creato con IA”.

Dall’account Instagram @candyrose_mc (link diretto al post).

L’intenzione di Meta era buona: etichettare chiaramente le immagini sintetiche generate con l’intelligenza artificiale, che ormai hanno raggiunto un livello di realismo tale da rendere molto difficile, se non impossibile, distinguere un’immagine sintetica da una fotografia reale.

La pubblicazione di immagini sintetiche fotorealistiche, senza avvisare esplicitamente che si tratta di qualcosa che è stato generato completamente da zero e non esiste nella realtà fisica, è infatti chiaramente ingannevole, specialmente quando l’immagine generata rappresenta una situazione plausibile nel mondo reale. Il rischio che i professionisti delle fake news usino i generatori di immagini basati sull’intelligenza artificiale per produrre immagini false di persone conosciute, allo scopo per esempio di ridicolizzarle o screditarle, è fin troppo evidente e ne esistono già molti casi documentati.

C’è anche il problema che i generatori di immagini finiscono per svilire il lavoro e la fatica dei fotografi professionisti, perché invece di comporre pazientemente la scena, mettere in posa il soggetto, regolare le luci e tutte le altre cose che un fotografo è costretto a fare fisicamente per ottenere una certa immagine, oggi si può ottenere un risultato più che paragonabile usando l’intelligenza artificiale, standosene comodamente al computer. Instagram è invaso, infatti, dalle foto di “modelle” che sono in realtà immagini generate dal computer, e le fotomodelle reali si vedono scavalcate da immagini sintetiche che possono essere fabbricate in una manciata di secondi, non si stancano, non invecchiano, non cambiano forme o peso e non hanno spese di trasferta o compensi da pretendere. E gran parte degli utenti (e anche dei committenti) non è in grado di accorgersi della differenza.

Etichettare le immagini sintetiche sembrebbe quindi un’ottima idea per difendere il professionismo dei fotografi e il lavoro di modelli e modelle in carne e ossa, e anche per contrastare le fake news; eppure i fotografi sono sul piede di guerra e pubblicano proteste indignate contro questa etichettatura.

L’etichetta che scredita

La ragione delle loro proteste è molto semplice: la “soluzione” escogitata da Meta sta etichettando come sintetiche, ossia false agli occhi del pubblico, anche le loro foto, quelle scattate con una fotocamera, inquadrando un soggetto fisico reale. L’etichetta “Creato con IA” sta insomma screditando il lavoro di moltissimi professionisti, ed è importante che chi usa Instagram sia ben consapevole che al momento attuale questa etichetta non vuol dire necessariamente che l’immagine sia stata generata da zero con l’intelligenza artificiale, e che viceversa la mancanza di questa etichetta non è una garanzia di autenticità.

Questa etichetta, infatti, viene applicata da Meta ai post su Instagram in due casi. Il primo è quello in cui chi posta un’immagine decide volontariamente di etichettarla come sintetica, usando la funzione apposita presente nell’app di Instagram [per esempio per evitare di incappare in sanzioni da parte di Meta]. Il secondo caso, quello più importante, è quello in cui Meta rileva in un’immagine sintetica la presenza di appositi indicatori, che vengono incorporati nell’immagine sotto forma di metadati dai programmi di generazione o di fotoritocco. Questi indicatori informano Meta che è stato fatto uso di intelligenza artificiale per elaborare l’immagine in questione.

Ma attenzione: l’etichetta “Creato con IA” viene applicata automaticamente da Meta non solo quando l’immagine è totalmente generata, ma anche quando una fotografia reale viene manipolata in qualunque modo, anche molto lievemente, usando software come Photoshop, che adoperano per alcuni strumenti l’intelligenza artificiale per produrre fotoritocchi sempre più rapidi e sofisticati.

Ovviamente c’è una differenza enorme fra un’immagine fotorealistica completamente generata al computer e una fotografia tradizionale alla quale è stato fatto un piccolo ritocco digitale per rimuovere, che so, un dettaglio antiestetico, eppure Meta mette tutto nel mucchio, perché in realtà non sta facendo alcun lavoro di analisi sofisticata delle immagini, per esempio per cercare di “capire” dal contenuto e dal contesto se sono sintetiche oppure no: sta semplicemente controllando se sono presenti o meno questi metadati. Se ci sono, mostra l’etichetta “Creato con IA”, e lo fa anche se il fotografo ha usato una vera fotocamera e ha inquadrato per esempio una modella reale, andando in un luogo reale, ma ha usato, anche in misura minima, uno degli strumenti di rifinitura di Photoshop basati sull’intelligenza artificiale, per esempio per rimuovere una minuscola sbavatura nel trucco o un granello di polvere che era finito sul sensore della fotocamera.

E viceversa, se questi metadati non ci sono, o vengono semplicemente rimossi con un trucco semplice come fare uno screenshot dell’immagine generata e pubblicare quello screenshot, anche l’immagine più vistosamente sintetica non verrà etichettata come “creata con IA”.

Purtroppo moltissimi utenti non sono al corrente di come funziona questo sistema di etichettatura e quindi stanno accusando di falsificazione fotografi che in realtà non hanno alcuna colpa. Questa etichetta così grossolana, insomma, sta causando danni reputazionali molto significativi. Ma questo a Meta non sembra interessare. Non per nulla fino al 2014 il motto ufficiale di Facebook, oggi Meta, era “move fast and break things”, ossia “muoviti in fretta e rompi le cose”: l’importante è fare soldi in fretta, e se nel farli si rovina la reputazione di qualcuno, il problema è di quel qualcuno, non di Meta.

Fate attenzione, insomma, a non farvi coinvolgere in discussioni e polemiche interminabili sulla “autenticità” di una foto su Instagram basandovi su questa etichetta: il rischio di trovarsi dalla parte del torto è molto alto. Anche perché forse state creando anche voi immagini sintetiche, di quelle che Meta etichetterebbe come “create con IA”, e nemmeno ve ne accorgete.

Fotografia computazionale

Se fate foto con il vostro smartphone, infatti, è molto probabile che alcuni dei filtri automatici presenti in questi dispositivi si basino sull’intelligenza artificiale. Per esempio, una foto di gruppo in cui tutti hanno miracolosamente gli occhi aperti o sorridono viene ottenuta spesso facendo una rapidissima raffica di foto e poi usando il riconoscimento delle immagini e dei volti per prendere dai vari scatti le facce venute bene e sovrapporle a quelle che hanno gli occhi chiusi o le espressioni serie. E tutto questo avviene direttamente a bordo dello smartphone, senza che ve ne accorgiate. Questa tecnica viene chiamata fotografia computazionale, e moltissime persone la usano senza nemmeno saperlo, perché è una funzione automatica standard degli smartphone di fascia alta.

Una foto ottenuta in questo modo è “falsa”, dato che non rappresenta un momento realmente esistito, e quindi dovrebbe essere etichettata da Meta? Oppure rappresenta la nostra intenzione o la nostra percezione della realtà come vorremmo che fosse, e quindi va accettata come “reale”?

Chiaramente la questione dell’autenticità e del realismo di un’immagine è molto più complessa e ricca di sfumature rispetto al banale “sì” oppure “no” di un’etichetta semplicistica come quella proposta da Meta. E questa necessità di sfumature, forse, è la lezione di realtà più importante di tutte.

 

Fonti aggiuntive: Crikey, Art-vibes, PetaPixel, Reddit.