Cerca nel blog

2021/07/31

Restauri e recuperi digitali delle foto di 50 anni fa sulla Luna

Cinquant’anni fa, sulla Luna c’erano due uomini che esploravano la superficie selenica viaggiando su un’auto elettrica. Ora, nel 2021, il fotorestauratore Andy Saunders ha elaborato digitalmente con maestria le fotografie e le riprese cinematografiche originali di quella missione, Apollo 15, per recuperare le foto sottoesposte e creare panoramiche assemblando le fotografie e le riprese fatte con una cinepresa 16mm su pellicola a colori. 

Il risultato è notevolissimo:

La Hadley Rille vista durante la discesa verso la Luna. Immagine composita realizzata da Andy Saunders partendo dalle riprese in 16 mm effettuate attraverso il finestrino destro del LM. Il puntino rosso indica il sito di atterraggio.

Sapevate che il Modulo Lunare di questa missione atterrò storto e danneggiò l’ugello del suo motore di discesa? Per fortuna ne usava uno separato per la risalita. Ora possiamo vedere bene il danno.

Il danno all’ugello del motore di discesa del Modulo Lunare. Fotografia restaurata da Andy Saunders.
Il sito di allunaggio del Modulo Lunare di Apollo 15. Si nota la forte pendenza del veicolo. Fotografia composita, restaurata da Andy Saunders.
L’automobile lunare, a circa 5 km dal punto di allunaggio. Il LM è a malapena visibile in lontananza. Fotografia composita, restaurata da Andy Saunders.
La foto composita precedente, con l’indicazione della Hadley Rille e dell’ubicazione del Modulo Lunare. Fotografia composita restaurata da Andy Saunders.

Inoltre le immagini della sonda Lunar Reconnaissance Orbiter sono state rielaborate per ottenere un modello 3D digitale della zona di allunaggio di Apollo 15, con indicati i principali luoghi interessati dall’esplorazione da parte degli astronauti.

Trovate maggiori dettagli in questo mio articolo su Apollo 15 Timeline.

 

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

Doctor Who e le lamentele sulla cultura “woke”

Ultimo aggiornamento: 2021/08/03 20:00.

Questo non è un articolo vero e proprio: sono solo appunti sparsi, che pubblico perché ho il presentimento che questa questione sarà importante, per gli appassionati di Doctor Who e di fantascienza in generale, ma non solo, nei mesi e negli anni che verranno.

C’è una lamentela, da parte di alcuni media ultraconservatori britannici molto popolari (che hanno i loro corrispettivi anche in altri paesi, Svizzera e Italia comprese), secondo la quale le nuove serie TV e i film recenti avrebbero troppi personaggi femminili e storie troppo incentrate sui temi sociali come la discriminazione, i cambiamenti climatici e il consumismo. Questo presunto eccesso viene definito sommariamente e sprezzantemente “cultura woke.

L’autore di fantascienza Charlie Stross ha segnalato una serie di tweet di Alan McWhan che risponde con citazioni precise a questa critica. Doctor Who, come Star Trek e tanta altra fantascienza, non è improvvisamente woke: non è diventato attento adesso ai grandi temi. Lo è sempre stato.

Riporto qui i tweet originali, con le fonti delle citazioni trovate gentilmente da Gabriella Cordone Lisiero con l’aiuto di molti whoviani: se non conoscete la serie o non sapete della polemica, ignoratela pure. Scusatemi se non mi fermo a spiegarla, ma richiederebbe pagine su pagine di premesse.

#DoctorWho has gone woke!” What, the Doctor Who whose very first story literally said “we’re all stronger if we work together”? (An Unearthly Child - La ragazza extraterrestre)

The Doctor Who whose second story literally said “pacifism is a wonderful ideal… but you’ve gotta keep punching Nazis to get there”? (The Daleks - I Dalek)

The #DoctorWho whose MVP for the first two seasons was a female, middle aged History teacher at a bog standard British school, who absolutely irrefutably taught The Doctor we know today the moral code by which the character lives? (si riferisce a Barbara Wright, per esempio nella serie di puntate The Aztecs - Gli aztechi)

The Doctor Who that was railing against profiteering business interests that were destroying the planet by the time its second season started, in 1964? (Planet of Giants - Il pianeta dei giganti)

The #DoctorWho that was giving a disproportionate number of roles to French, German, Belgian, and other non-British characters by 1967, including some of the first speaking parts for non-white actors in the history of British television? (per citarne uno su tutti: The Reign of Terror - Il regno del terrore, ambientato durante la Rivoluzione Francese)

The #DoctorWho that was putting feminism and equality front and centre by the time it introduced astrophysicist Zoe Herriot by 1969, multiple degree holding Cambridge graduate Liz Shaw by 1970, and gutsy investigative journalist Sarah-Jane Smith by 1974? (rispettivamente, The Wheel in Space, Spearhead from Space e The Time Warrior

The Doctor Who that was raising the issue of global warming by 1968? (The Green Death)

The Doctor Who that was warning about non-biodegradable plastics before most people were even aware of the existence of plastics? (Spearhead from Space e Terror of the Autons

THAT Doctor Who has “gone woke”?! 

Behave. 

Doctor Who had already taught me about global warming, corporate greed (The Invasion), over-zealous tax regimes, sexism (tutte le compagne classiche ma soprattutto Liz, Sarah Jane e Ace), fascism and SO much more by the time I left primary school in 1982 that any accusations of “wokism” by card-carrying right wing arseholes like Kelvin MacKenzie 40 years later result in little more than a roll of the eyes and a disparaging, “Have you ever actually WATCHED #DoctorWho?” (per il “fascism”: Genesis of the Daleks, con dialoghi come “You see, if someone who knew the future pointed out a child to you and told you that that child would grow up totally evil, to be a ruthless dictator who would destroy millions of lives, could you then kill that child?”)

Gabriella ha preparato la traduzione:

#DoctorWho è diventato "woke"! Che cosa? Il Doctor Who la cui primissima storia letteralmente ci ha insegnato che "siamo più forti se lavoriamo insieme"?
Il Doctor Who la cui seconda storia diceva letteralmente "il pacifismo è un ideale meraviglioso... ma bisogna continuare a combattere i Nazisti per arrivarci"?
Il #DoctorWho che per le prime due stagioni aveva il suo protagonista più importante in una donna di mezza età, insegnante di storia in una normale e scadente scuola britannica. Donna che in modo assolutamente inconfutabile insegnò al Dottore che conosciamo oggi il codice morale che guida la vita del personaggio?
Il Doctor Who che, quando è cominciata la sua seconda stagione nel 1964, inveiva contro gli interessi commerciali profittatori che distruggono il pianeta?
Il #DoctorWho che fin dal 1967 ha dato un numero sproporzionato di ruoli a personaggi francesi, tedeschi, belgi e altri non britannici, comprese alcune delle prime parti con battute per attori non bianchi nella storia della televisione britannica?
Il #DoctorWho che ha messo al centro della scena il femminismo e l'equaglianza quando ha presentato l'astrofisica Zoe Herriot nel 1969, la laureata a Cambridge in molteplici materie Liz Shaw nel 1970 e la coraggiosa giornalista investigativa Sarah-Jane Smith nel 1974?
Il Doctor Who che aveva sollevato il problema del riscaldamento globale nel 1968?
Il Doctor Who che metteva in guardia dalla plastica non biodegradabile prima che la maggior parte della gente fosse consapevole dell'esistenza della plastica?
QUEL Doctor Who è “diventato woke”?!
Ma per favore.
Doctor Who mi aveva parlato di riscaldamento globale, avidità aziendale, regimi fiscali troppo zelanti, sessismo, fascismo e MOLTO di più prima che io lasciassi le elementari nel 1982, e qualsiasi accusa di essere "woke" da parte di idioti che se ne accorgono quarant'anni dopo mi fa solo alzare gli occhi al cielo dicendo "Ma avete mai davvero GUARDATO #DoctorWho?”

Qualche altro esempio:

 

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

2021/07/30

Una piccola burla da nerd per la sicurezza delle auto

Qualche giorno fa ho comprato per pochi euro due di questi portachiavi con la dicitura “PULL TO EJECT” tipica dei seggiolini eiettabili degli aerei.

L’ho fatto per una burla, ma anche per una ragione di sicurezza molto seria. Come molte auto della sua categoria, anche TESS (la mia Tesla Model S di seconda mano) ha un sistema elettrico di bloccaggio delle portiere posteriori. Non è quello della sicurezza bambini: è proprio una chiusura elettrica aggiuntiva a quella meccanica. La sicurezza bambini è un comando separato.

Quando si tira la maniglia interna per aprire, questo bloccaggio si disinnesta elettricamente. In caso di incidente, i sistemi di sicurezza lo disattivano, sempre elettricamente, e consentono l’apertura puramente meccanica (Model S Emergency Response Guide, pagina 23: “When an airbag inflates, Model S unlocks all doors, unlocks the trunk, and extends all door handles”). Ma che succede se l'impianto elettrico è danneggiato da una collisione o è guasto per qualche motivo? Se la batteria a 12V dell’auto è a terra o non fa contatto, che si fa?

Se non c’è alimentazione elettrica, il bloccaggio elettrico non si disattiva e la portiera non si può aprire dall'interno, neppure se si tira la maniglia. Brrr. Così prima di comprare l’auto ho sfogliato il manuale alla ricerca del sistema meccanico d’emergenza. Ho trovato la spiegazione a pagina 8. Il sistema c’è, ma è un po’ nascosto. Lo vedete?  


No, vero? Provate a trovarlo in quest’altra foto: 

Sì. È quella linguettina nera su sfondo nero sotto la seduta del sedile posteriore. Una di quelle cose che non troverai mai quando ti serve, se non sai già benissimo dov‘è. E che magari non sai neanche che esiste, visto che quando sei seduto sui sedili posteriori non la puoi nemmeno vedere e di solito non te ne parla nessuno. Oltretutto normalmente è coperta da una linguetta di moquette.

Qui sopra la vedete illuminata perché ho piazzato appositamente una lampada per scattare la fotografia. Normalmente è praticamente invisibile.

Per sbloccare le portiere bisogna trovarla e tirarla: un cavo collegato alla linguetta aziona meccanicamente il meccanismo di blocco e lo disinnesta. Il manuale lo spiega così (qui mostro la versione inglese, ma c’è anche la versione italiana):

 

Sottolineo, per maggiore chiarezza, che questo sblocco meccanico serve soltanto in un’emergenza tale per cui l’impianto elettrico è completamente andato. Normalmente, infatti, per aprire la portiera si tira semplicemente la maniglia interna (se non è attiva la sicurezza bambini). Questo attiva lo sblocco elettrico. 

Questa situazione non mi piace per nulla, così ho deciso di rendere un po’ più evidente questa misera linguetta agganciandoci qualcosa di ben visibile: quel “PULL TO EJECT” giallo e nero. Qui vedete la manopolina dell’altro sedile posteriore, alla quale ho già applicato il portachiavi. Ho provato e funziona: tirando il portachiavi la portiera si sblocca.


In questo modo, quando sale a bordo qualcuno che trasporto su TESS per la prima volta, gli posso fare il briefing di sicurezza come sugli aerei: “Per i passeggeri della seconda fila, si prega di notare la linguetta gialla e nera con scritto “PULL TO EJECT” situata sotto il sedile fra le vostre gambe. In caso di emergenza, tirate con forza la linguetta...". Poi posso aspettare la reazione perplessa di chi si chiede se davvero le Tesla, notoriamente ipertecnologiche, abbiano anche il seggiolino eiettabile e sdrammatizzare la situazione intanto che insegno una precauzione di sicurezza importante.

Seriamente: tante auto hanno questi blocchi elettrici. Sarebbe opportuno che fosse ben indicato dove si trova lo sblocco meccanico d’emergenza, che il conducente si informasse sulla sua collocazione e ne informasse anche i passeggeri. Fateci un pensierino. Se avete un'auto di questo genere, scoprite dove sta lo sblocco. Ammesso che ci sia. Prudenza.

 

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

Podcast del Disinformatico 2021/07/30: Perché i computer parlano... come computer? Breve storia della sintesi vocale


Ultimo aggiornamento: 2021/07/30 13:40.

È disponibile subito il podcast di oggi de Il Disinformatico della Rete Tre della Radiotelevisione Svizzera, condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto). Questa è l’edizione estiva, dedicata a un singolo argomento.

I podcast del Disinformatico di Rete Tre sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo e i link alle fonti della storia di oggi, sono qui sotto!

Nota: la parola CLIP nel testo che segue non è un segnaposto in attesa che io inserisca dei contenuti. Indica semplicemente che in quel punto del podcast c’è uno spezzone audio. Se volete sentirlo, ascoltate il podcast oppure guardate il video che ho incluso nella trascrizione.

Correzione: Nel podcast ho detto che la voce di HAL in inglese era di Claude Rains, ma mi sono maldestramente sbagliato: era di Douglas Rain (Claude Rains era l’interprete del classico L’uomo invisibile del 1933). Ho corretto nel testo qui sotto. Grazie a chi mi ha segnalato lo sbaglio nei commenti. Mi scuso per l’errore.

----

(CLIP: HAL)

È una delle scene più celebri e raggelanti del film di Stanley Kubrick 2001: Odissea nello spazio. A bordo dell’astronave Discovery, in viaggio verso il pianeta Giove, il supercomputer HAL 9000 chiude inesorabilmente le comunicazioni con l’unico astronauta sopravvissuto, David Bowman. Gli altri membri dell’equipaggio sono stati uccisi proprio da HAL.

Oggi l’idea di comunicare a voce con un computer ci sembra ovvia e banale, grazie agli assistenti vocali, ma all’epoca in cui Kubrick girò questo capolavoro della fantascienza, mezzo secolo fa, era appunto un concetto da fantascienza. I computer, anzi i calcolatori di quell’epoca, enormi e costosissimi, comunicavano solitamente stampando i propri messaggi o mostrandoli su un monitor. Farli parlare sembrava impensabile.

Questa è la storia di come abbiamo insegnato ai computer a parlare con naturalezza. Ora che ci siamo riusciti, saremo capaci anche di farli smettere?

---

La tecnica che consente di riprodurre artificialmente la voce umana si chiama sintesi vocale. Non è particolarmente nuova: uno dei primissimi esempi di sintesi vocale elettrica è VODER, che risale addirittura al 1939. Sì, avete capito bene: all’inizio della Seconda Guerra Mondiale c’erano già voci sintetiche. Ecco VODER che tenta a fatica di dire OK e simulare una risata.

(CLIP: VODER)

La demo, ben più lunga, dalla quale ho tratto solo l’“OK” e la “risata”.

Certo, VODER non era un granché; le sue parole erano quasi incomprensibili, e serviva il lavoro di un operatore umano per fargliele generare. Ma stabiliva e dimostrava un principio importantissimo: era possibile creare una voce umana artificiale.

Una ventina d’anni più tardi, nel 1961, John Larry Kelly Jr e Carol Lockbaum, del centro di ricerca statunitense Bell Labs, usarono un computer IBM 7094 per sintetizzare una voce umana un po’ più intellegibile, che addirittura cantava:

(CLIP: Daisy 1961)

Questa dimostrazione, che oggi fa sorridere per quanto è primitiva, ebbe però all'epoca un effetto sensazionale e colpì in particolare un certo amico di John Larry Kelly: lo scrittore di fantascienza Arthur C. Clarke, coautore insieme a Stanley Kubrick della sceneggiatura di 2001: Odissea nello spazio. Nel film c’è una celebre scena in cui HAL viene disattivato progressivamente dall’astronauta sopravvissuto. Nell’edizione italiana, HAL canta Giro giro tondo.

(CLIP: HAL canta in italiano)

Ma nella versione originale del film il computer canta un’altra canzone:

(CLIP: HAL canta in inglese)

Sì, è la stessa melodia, intitolata Daisy Bell, usata in quella storica demo informatica di sintesi vocale del 1961: una citazione nascosta e discreta, voluta da Arthur Clarke, che purtroppo si è persa nel doppiaggio.

Nel film, fra l’altro, non furono usate voci sintetiche per il computer: in originale la voce di HAL fu recitata dall’attore Douglas Rain, mentre in italiano fu creata dall’attore e doppiatore Gianfranco Bellini.

La cadenza fredda e inumana della voce di HAL, e in generale delle voci robotiche e sintetiche usate in tanti film e telefilm classici di fantascienza, è basata sul fatto che all’epoca la sintesi vocale reale era proprio così: incapace di rappresentare tutte le sfumature ed emozioni di una voce umana.

Per poterlo fare, un computer doveva prima di tutto imparare a leggere ad alta voce automaticamente qualunque testo, senza l’aiuto caso per caso di un operatore umano come in passato. Questo è il cosiddetto text-to-speech, ossia “dal testo al parlato”, il cui primo esempio fu creato da Noriko Umeda in Giappone nel 1968.

Pochi anni dopo, nel 1976, Raymond Kurzweil presentò una delle prime applicazioni pratiche di queste ricerche: un assistente di lettura per ciechi e ipovedenti. In questi dispositivi, uno scanner riconosceva le lettere stampate nei libri e generava i suoni vocali corrispondenti, permettendo quindi la lettura di qualunque testo comune anche a chi normalmente era escluso da questa possibilità. Era un sistema molto costoso e ingombrante, che potevano permettersi solo alcune biblioteche, ma era un inizio.

La prima sintesi vocale in italiano si chiamava MUSA e nacque nel 1975 presso i laboratori CSELT.

(CLIP: Musa)

Anche in questo caso non manca la dimostrazione di... talento canoro, che per MUSA arrivò tre anni più tardi, ma arrivò:

(CLIP: musa-framartino)

Pochi anni dopo arrivarono i sistemi di sintesi vocale portatili, integrati in personal computer come i Macintosh e gli Amiga, ridando la possibilità di parlare a chi l’aveva persa a seguito di trauma o malattia, come il celebre fisico britannico Stephen Hawking, la cui voce sintetica divenne il suo marchio caratteristico, anche se in realtà gli dava un accento fortemente americano perché era basata sui campioni della voce di uno dei pionieri del settore, Dennis Klatt.

(CLIP: Hawking)

La sintesi vocale, insomma, arriva da molto lontano nel tempo, ma avrete notato che tutti questi esempi hanno un difetto: sono a malapena comprensibili, oltre che privi di cadenza, naturalezza ed emozione. Funzionano, sono utili, ma non sono certo piacevoli da usare.

Confrontate questi campioni del passato con una sintesi vocale odierna, quella di Siri di Apple:

(CLIP: Siri risponde alla richiesta “Cantami una canzone”)

Non è perfetta, ma è molto più chiara e naturale. Cosa è cambiato? Fondamentalmente tre cose: la potenza di calcolo, la quantità di memoria, e un trucco.

I suoni di base di una lingua, i cosiddetti fonemi, sono relativamente pochi, una cinquantina in italiano, ma non basta generarli in sequenza in una sorta di collage di pezzetti: nel linguaggio naturale, infatti, vengono pronunciati in modo differente all’inizio o alla fine di una parola, dopo una pausa, o in una domanda, o per sottolineare un concetto.

Per una sintesi vocale naturale serve quindi un archivio enorme di tutti questi suoni elementari nelle varie situazioni, e questo archivio richiede tanta memoria digitale. Serve poi anche una grande potenza di calcolo per scegliere rapidissimamente, istante per istante e caso per caso, quale campione vocale usare.

Il problema è generare questi archivi: occorre prendere una persona che abbia la voce giusta e farle registrare decine di ore di parlato di tutti i generi, da cui estrarre poi i vari campioni. In altre parole, mentre i sistemi di sintesi vocale del passato cercavano di generare i suoni da zero, quelli di oggi “barano”, per così dire, prendendo dei suoni umani reali e poi scomponendoli e riassemblandoli. E c’è anche un altro trucco: le frasi ed espressioni più ricorrenti sono preregistrate in blocco.

(CLIP: Siri risponde alla richiesta “Dimmi uno scioglilingua”)

La prossima frontiera della sintesi vocale è il deepfake sonoro: l’imitazione perfetta, indistinguibile dall’originale, della voce di una specifica persona. Per ottenerla servono tantissimi campioni della voce da imitare: ma se si tratta di una celebrità o di una persona che parla spesso in pubblico, questo non è difficile.

La novità è che come per i deepfake visivi, che permettono di creare videoclip molto realistici nei quali il volto di una persona viene sostituito con quello di un altro, il lavoro di selezione e montaggio dei campioni di suono viene fatto automaticamente dal software, che funziona su un comune computer domestico.

Questo vuol dire che sta diventando sempre più facile creare duplicati perfetti della voce di qualcuno, e che quindi non potremo più fidarci di quello che sentiamo se non abbiamo davanti a noi in carne e ossa la persona che sta parlando.

Non è teoria: a maggio del 2021 è stato segnalato un caso di tentato crimine informatico messo a segno usando la sintesi vocale. I criminali hanno imitato al telefono la voce di un direttore d’azienda e gli hanno fatto dire di effettuare un pagamento di 243.000 dollari per chiudere una trattativa con un cliente. L’assistente si è fidato perché ha creduto di riconoscere la voce del suo direttore.

È una frontiera inquietante. Fra l’altro, probabilmente non ve ne siete accorti, ma in realtà una frase di questo podcast non l’ho pronunciata io, ma uno di questi generatori di deepfake vocali.

No, non è vero. Almeno per ora. Ma vi è venuto un brivido, vero?

 

Fonti aggiuntive: Wired.com; Aalto.fi (i campioni sonori citati sono in questo video); Wikipedia; McGill.ca.

Un miliardo di rickroll

Il rickroll è una tradizione di Internet nata nell’ormai informaticamente lontano 2007: qualcuno annuncia qualcosa di clamoroso, desiderabile o sensazionale, linkando una fonte dove trovarla, e tutti i creduloni e curiosi cliccano sul link. 

Ma il link porta a un video di Rick Astley che canta Never Gonna Give You Up, un successo planetario del 1987. A volte al posto di Rick Astley si usa la canzone russa Trololo.

È una burla innocua, nonostante le sue origini nei bassifondi crudeli e feroci di Internet, nei forum di 4chan. Qualcuno ti chiede le foto sexy della celebrità del momento alla quale tiene esageratamente, o dove scaricare una versione craccata di un videogioco o un film attesissimo, e tu rispondi con il link a Rick Astley. Il rickroll ha tante forme: un codice QR su una finta multa, un malware dimostrativo per iPhone, o la versione per Zoom. Nel 2008 lo fece direttamente YouTube: il primo d’aprile, tutti i video nella prima pagina di YouTube portavano a Never Gonna Give You Up. Persino la Casa Bianca fece un rickroll, nel 2011.

Pochi giorni fa il video della canzone di Rick Astley che si usa per i rickroll (questo) ha raggiunto una tappa importante: un miliardo di visualizzazioni su YouTube. Molte saranno presumibilmente dovute alla tradizione del rickroll. 

Comprensibilmente, molti si chiedono se così tante visualizzazioni abbiano fruttato qualche soldo al cantante. Nel 2010, quando il video aveva “solo” alcuni milioni di visualizzazioni, aveva incassato da questo canale soltanto dodici dollari, perché non è l’autore della canzone e quindi riceve soltanto i diritti da esecutore o interprete, non quelli ben più sostanziosi che spettano ai compositori. Se i compensi da allora sono proporzionali, forse l’ex cantante può aver incassato una decina di migliaia di dollari. In un Ask Me Anything di Reddit del 2016 (grazie a @Tigro724791 per averlo trovato), Astley disse di non sapere con precisione quanto abbia ricevuto dal video in sé, ma aggiunge che grazie al rickroll è stato pagato dalla Virgin per fare uno spot e da altri per partecipare ad altri eventi, per cui qualcosina, insomma, questa strana forma di nuova notorietà gli ha fruttato.

La storia completa del rickroll è pubblicata su Melmagazine. Beh, quasi completa: manca un episodio minore, quello in cui io tentai un rickroll e andò in maniera terribilmente imbarazzante davanti alle telecamere.

2021/07/29

40 anni fa il matrimonio di Carlo e Diana. Feci una diretta alla radio. Piccola storia vintage

Ultimo aggiornamento: 2021/07/29 22:20.

29 luglio 1981. All’epoca, quarant’anni fa, ero un giovane DJ in una radio privata di Pavia (Pavia Radio City). Insieme a un collega, Ezio P (che non so se vuole essere ricordato in questa vicenda), ci inventammo una diretta radiofonica per coprire a modo nostro la cerimonia del matrimonio del principe Carlo e di Lady Diana Spencer.

Volutamente non preparammo nulla: non sapevamo nulla dei nomi, dei ruoli o del programma della cerimonia. L’idea era di riempire due ore con il vuoto pneumatico delle più banali ovvietà, come era già consuetudine allora durante le dirette-fiume degli eventi. Descrivemmo alla radio lo sfarzoso, surreale matrimonio inventandoci notizie come la minaccia dei terroristi dell'IRA di attaccare il cocchio con uno spandiletame (o un bazooka, non ricordo bene).

Avevamo come "corrispondenti da Londra" la giornalista Susan Calvin (citazione asimoviana) e il suo collega Patrick Cargill (uno dei più perfidi Numero Due de Il Prigioniero e popolare all’epoca in Italia per il telefilm comico Caro papà). Erano inventati e inesistenti; facevamo finta di tradurre al volo le loro corrispondenze. In realtà guardavamo le immagini alla TV, trasmesse dalla Rai, l’unica che allora poteva trasmettere in diretta nazionale (l’interconnessione doveva ancora arrivare, tre anni più tardi).

Eravamo insomma semplicemente due scemi che prendevano in giro la pompa magna e l'assurdità del clamore mediatico pazzesco intorno al matrimonio dei membri della famiglia reale.

Faccio davvero fatica a credere che siano passati quarant’anni. Da qualche parte devo avere ancora l'audiocassetta con la registrazione. Un giorno, quando il mondo sarà pronto, la pubblicherò.

Questa è una delle poche foto che ho di quel periodo (ne ho altre, ma ritraggono anche persone che nel frattempo hanno acquisito una reputazione da difendere). Il foulard era contro il mal di gola. Negli anni successivi la radio ebbe attrezzature migliori (e anche DJ migliori del sottoscritto). 

Sì, avevo i capelli ricci, e li odiavo così tanto che dopo un po’ smisero di arricciarsi.

Facemmo il programma e io poi tornai a casa. Mia madre, serissima, mi chiese se era stato poi acciuffato il terrorista dell'IRA. Aveva ascoltato la mia diretta :-)

---

Aggiornamento 1: ho ritrovato in archivio il file audio, riversato previdentemente da un’audiocassetta nel 2013. Che faccio? Ho lanciato un sondaggio su Twitter. Finora il 73% mi propone di metterlo online, il 19% suggerisce di metterlo all’asta per beneficenza e l’8% chiede di distruggerlo per salvarci tutti :-)

---

Aggiornamento 2: A furor di popolo (si fa per dire), ecco il file audio. Non è completo: mancano le “interviste esclusive” a Carlo e Diana (in realtà recitate da due persone con voci manifestamente finte e accenti tutt’altro che britannici). Ho inoltre tagliato i brani musicali scelti dal “tecnico del suono” John Williams per non incorrere nell’ira dei controlli sul copyright di YouTube.

Siccome non voglio che questo mio antico momento di scempio radiofonico causi solo danni agli animi sensibili, vi propongo una piccola sfida: se qualcuno ha lo stomaco di ascoltarselo tutto e dirmi come si chiama l’inesistente “terrorista dell’IRA” scrivendone nome e cognome esatti nei commenti qui sotto, donerò 50 euro a Medici senza frontiere, come già fatto in altre occasioni. Se volete fare altrettanto, ovviamente, siete i benvenuti.

Aggiornamento 3: Siete stati velocissimi! Ho mantenuto subito la promessa:

 

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

Senza troppi giri di parole: perché il razzo di Jeff Bezos è così fallico?

È inutile far finta di niente: i razzi sono da sempre considerati dei simboli fallici, visto anche il loro ruolo nel prestigio internazionale degli stati e dei privati che li fabbricano. Ma il vettore New Shepard di Jeff Bezos, che pochi giorni fa ha trasportato i suoi primi passeggeri per un breve volo suborbitale, è particolarmente fallico. Come mai?

Lo spiega molto bene, e con una punta di ironia, Scott Manley nel video qui sotto (in inglese) da 9:33 in poi: la forma è derivata da considerazioni tecniche ben precise.

La prima considerazione è il diametro: i vettori devono essere trasportabili su strada per ridurre i costi, per cui non devono essere eccessivamente larghi (il progetto Apollo, con i dieci metri di diametro del vettore Saturn V, aggirò il problema usando chiatte e aerei speciali, con costi enormi; lo stesso fece lo Shuttle). Il diametro massimo praticabile su strada è circa quattro metri, considerate le curve e i margini di sicurezza. 

Anche SpaceX, con il suo Falcon 9, si ferma grosso modo a questo diametro. Il Falcon Heavy usa tre vettori affiancati, derivati dal Falcon 9, che vengono trasportati individualmente e assemblati al centro di lancio. Per la Starship, invece, SpaceX aggira il problema costruendone gli esemplari direttamente nel punto di lancio.

La seconda considerazione è l’altezza, che insieme al diametro e alla capsula (sulla quale torno tra poco) conferisce al razzo le sue proporzioni davvero simili a quelle di un pene eretto. Di solito i razzi sono più snelli e allungati, ma nel caso di New Shepard il vettore deve soltanto compiere un salto suborbitale, per cui non c’è bisogno di tantissimo propellente e quindi non servono serbatoi enormi. Visto che il diametro e il volume necessario sono parametri fissi, l’altezza relativamente modesta e la forma poco slanciata sono semplici conseguenze di questi valori.

Poi c’è la forma della capsula, con la sua sagoma stondata e il suo diametro maggiore di quello del vettore: due cose piuttosto insolite che accentuano la somiglianza genitale. Anche qui, la forma risultante deriva solo da questioni tecniche.

Infatti anche la capsula va trasportata su strada, per cui non può avere un diametro superiore ai quattro metri circa, ed è necessario massimizzare il suo volume interno per dare spazio ai passeggeri. Inoltre deve avere una forma che la renda aerodinamicamente efficiente nel fendere l’aria durante la salita ma anche aerodinamicamente stabile durante la ricaduta verso la Terra, prima dell’apertura dei paracadute. Furono considerate numerose forme, fino a trovare quella ottimale... che però somiglia moltissimo a una parte anatomica ben precisa.

Il diametro maggiorato della capsula e della sommità del razzo rispetto al resto del veicolo è dovuto ancora una volta a esigenze aerodinamiche: in cima al vettore, infatti, c’è un anello che serve per stabilizzarne la discesa, un po’ come avviene con le bombe e le loro alette, spesso accompagnate da un anello. 

L’anello di New Shepard ha infatti quattro pinne stabilizzatrici retrattili e otto alette di frenata aerodinamica, anch’esse retrattili e integrate nell’anello, come si vede bene in questa foto.

Il diametro della capsula, superiore a quello del vettore, fa sì che durante l’ascesa l’anello sia coperto dalla capsula stessa e quindi non causi interferenze aerodinamiche; una volta sganciata la capsula, invece, l’anello sporge ampiamente dalla sagoma cilindrica del vettore e quindi può agire bene come apparato di stabilizzazione.

Certo, come nota anche Scott Manley, è presumibile che a un certo punto qualcuno, in qualche meeting aziendale di Blue Origin, abbia fatto notare che stavano sviluppando un razzo a forma di enorme pisello, e che questa forma era però il risultato ineluttabile della fisica e dell’ingegneria. La forma segue la funzione.

 

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

2021/07/28

50 anni fa, la prima missione lunare con auto elettrica: Apollo 15

Esattamente cinquant’anni fa al momento in cui scrivo queste righe, tre uomini erano in viaggio verso la Luna per una delle missioni spaziali più spettacolari di sempre. Con la missione Apollo 15, la NASA non solo ambiva a far arrivare due dei tre astronauti sulla Luna, in diretta TV mondiale, come nelle missioni precedenti: voleva anche farli viaggiare sulla superficie lunare usando un’automobile. Mentre Al Worden restò in orbita lunare, lanciando un satellite e svolgendo esperimenti scientifici e mappature fotografiche di altissima precisione della Luna, Dave Scott e Jim Irwin furono i primi esseri umani a viaggiare su un’auto al di fuori della Terra.

E che automobile. Interamente elettrica, con quattro motori indipendenti e quattro ruote sterzanti, comandata tramite un joystick, capace di portare due persone in tuta spaziale e i loro attrezzi, dotata di navigatore (basato su un sistema di sensori inerziali) e di telecamera e trasmettitore TV e soprattutto leggerissima (200 kg sulla Terra) e ripiegabile per poter essere alloggiata in uno scomparto del Modulo Lunare, il veicolo di allunaggio. Si chiamava Lunar Roving Vehicle, e in questo debutto trasportò gli astronauti per una trentina di chilometri, allargando enormemente il loro raggio esplorativo, visto che prima erano costretti a camminare dentro le loro rigidissime tute spaziali (leggermente migliorate per questa missione rispetto alle precedenti).

Foto AS15-85-11471 - JSC scan.



Animazione della procedura di estrazione del Rover.


Da 1:35 in poi, la diretta TV (accelerata per brevità) dell’estrazione del Rover dal modulo lunare di Apollo 15. Credit: Amy Shira Teitel.

 

Apollo 15, la prima delle missioni più strettamente scientifiche del progetto lunare statunitense, partì dalla Florida il 26 luglio 1971 a bordo di un vettore Saturn V. Il modulo lunare Falcon, con Scott e Irwin, atterrò sulla Luna il 30/7/1971, alle 22:16:29 UTC, vicino al Mare Imbrium (Mare delle Piogge).

Scott e Irwin effettuarono tre escursioni lunari in aggiunta a una stand-up EVA: Scott, in tuta spaziale, si sporse all’esterno dal condotto di attracco del modulo alla sommità del veicolo e perlustrò visivamente e fotograficamente la zona circostante per circa mezz’ora.

I due astronauti restarono sulla Luna per due giorni, 18 ore e 54 minuti, raccogliendo 77,3 kg di rocce lunari e scattando 1151 fotografie in aggiunta alle trasmissioni televisive in diretta (incluso il decollo del LM) e alle riprese cinematografiche su pellicola. Nel loro bottino geologico ci fu la Genesis Rock, una delle pietre lunari più antiche mai recuperate (oltre 4 miliardi di anni). 

Jim Irwin accanto all’LRV. Foto a colori elaborata da Planetary Society per rimuovere le crocette di riferimento.

Questa è la missione durante la quale Scott lasciò cadere simultaneamente una piuma e un martello per confermare l’ipotesi di Galileo sulla caduta identica dei corpi nel vuoto e collocò di nascosto sulla Luna una statuetta, il Fallen Astronaut, per commemorare gli astronauti statunitensi e i cosmonauti sovietici caduti dei quali si era a conoscenza all’epoca.

Come se tutto questo non bastasse, durante il viaggio di ritorno Al Worden fece la prima passeggiata spaziale nello spazio profondo, fra Terra e Luna, per recuperare le pellicole delle fotocamere automatiche di ricognizione.

La missione si concluse il 7 agosto 1971 con un ammaraggio nell’Oceano Pacifico dopo 12 giorni, 7 ore e 11 minuti.

Se l’argomento vi interessa, l’amico Gianluca Atti, collezionista di cose lunari e spaziali, e il sottoscritto vi offrono Apollo 15 Timeline, un sito-blog interamente in italiano che contiene una cronologia e un racconto della missione, con tante foto di altissima qualità, video restaurati, e trascrizioni e scansioni degli articoli comparsi all’epoca sui giornali e sulle riviste in Italia. Rileggere quella prosa e pensare con quali mezzi fu possibile scriverla è un tuffo nella nostalgia e anche un confronto impietoso con il giornalismo divulgativo di oggi. 

Consiglio anche gli articoli di Astronautinews (in italiano) dedicati alla missione, scritti oggi come se fossero redatti da un viaggiatore nel tempo.

 

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

2021/07/27

Quiz: l’aumento di CO2 nell’aria causa i cambiamenti climatici. Ma allora perché è permesso venderla per rendere frizzante l’acqua?

Ultimo aggiornamento: 2021/08/02 19:00.

Sfogliando un catalogo online mi è venuta spontanea una riflessione. Le automobili vengono tassate in base alle loro emissioni di CO2. I processi produttivi sono gravati da una tassa sull’anidride carbonica generata; idem i combustibili per riscaldamento. È la cosiddetta carbon tax. In Svizzera, per esempio, questa tassa incide per circa 30 centesimi di franco su ogni litro di olio da riscaldamento e aumenterà nel 2022.

La preoccupazione per i cambiamenti climatici è incentrata in gran parte sull’aumento della CO2 nell’atmosfera, che produce un effetto serra che aumenta la temperatura media planetaria. Dovremmo, insomma, fare di tutto per evitare di produrre e rilasciare CO2.

In queste condizioni, non è assurdo che invece la CO2 venga addirittura messa in vendita in bombolette, oltretutto per un’applicazione decisamente superflua come gasare l’acqua da bere? Ci sveniamo per ridurre le emissioni di anidride carbonica e poi andiamo a comprarla e la rilasciamo in atmosfera? Pare un controsenso.

Non ho ancora una risposta. Voi cosa riuscite a scoprire?

 

Aggiornamento (2021/08/02): Grazie a tutti i commentatori per gli spunti e le informazioni. In estrema sintesi, la quantità di CO2 usata per i gasatori è minuscola rispetto alle altri fonti di CO2; la CO2 utilizzata, inoltre, è spesso un sottoprodotto di processi industriali e verrebbe comunque rilasciata da questi processi, per cui viene catturata e usata dai gasatori prima di essere immessa nell’ambiente; e la gasatura dell’acqua di rubinetto riduce la produzione di bottiglie per l’acqua minerale, riducendo quindi l’inquinamento da plastica e le emissioni di CO2 causate dalla fabbricazione delle bottiglie di plastica e dal loro trasporto fino al luogo di consumo (il trasporto delle bombolette è molto più efficiente del trasporto di bottiglie piene d’acqua gassata). Ovviamente bere acqua del rubinetto non gassata è l’optimum, ma non è il caso di perdere il sonno sulle emissioni dei gasatori: conviene concentrarsi sulle emissioni causate dalle auto a carburante o dai voli in aereo.

Fonti aggiuntive: Grist.org; Time.

2021/07/25

Perché la guida autonoma è difficile, spiegato bene: una Tesla scambia la Luna per un semaforo

Rilancio qui le mie asserzioni-scommessa sull’intelligenza artificiale basata solo sul riconoscimento di schemi:

  1. Il machine learning è semplicemente un riconoscimento di schemi (pattern recognition) e non costituisce “intelligenza” in alcun senso significativo della parola.
  2. Il riconoscimento di schemi fallisce in maniera profondamente non umana e in situazioni che un umano invece sa riconoscere in maniera assolutamente banale. Questo rende difficilissimo prevedere e gestire i fallimenti del machine learning e quindi rende pericolosa la collaborazione umano-macchina.
  3. Qualunque sistema di guida autonoma o assistita basato esclusivamente sul riconoscimento degli schemi è destinato a fallire in maniera imbarazzante e potenzialmente catastrofica.
Esempio dell’asserzione numero 2:

Sì, l’attuale software delle Tesla (che, ricordo, per l’ennesima volta, è un assistente di guida, non un sistema di guida autonoma) scambia la Luna, giallognola e bassa sull’orizzonte, per un impossibile semaforo giallo sospeso in cielo.

Un esempio perfetto di edge case: una situazione che si presenta molto raramente ed è assolutamente ovvia per un essere umano (che ha cognizione di come è fatto il mondo e sa che non ci sono semafori in cielo) e che pertanto difficilmente verrà contemplata nel dataset usato per addestrare il sistema di riconoscimento delle immagini.

So bene che questa versione del software è una beta e il suo uso in strada serve proprio per addestrare la versione successiva a riconoscere anche questi edge case, ma quanti edge case ci sono? Quanti ne dovremo scoprire prima di poter ritenere ragionevolmente di averli scoperti tutti? E ha senso pagare oggi 200 dollari al mese o 10.000 dollari una tantum per un prodotto del genere?

Finché il software di guida assistita sbaglia così, non me ne faccio niente di un assistente imbecille e di certo non sono disposto a mettere la mia vita nelle sue mani. Se avete un’auto con guida assistita, di qualunque marca, non fidatevi troppo.


Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

2021/07/23

Podcast del Disinformatico RSI 2021/07/23: Perché i computer spaziali durano decenni ma il mio PC si pianta sempre?


Ultimo aggiornamento: 2021/07/28.

2021/07/23. È appena terminato il montaggio del podcast di oggi de Il Disinformatico della Rete Tre della Radiotelevisione Svizzera, condotto dal sottoscritto, e la puntata è già online presso www.rsi.ch/ildisinformatico (link diretto). Questa è l’edizione estiva, dedicata a un singolo argomento.

I podcast del Disinformatico di Rete Tre sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo e i link alle fonti della storia di oggi, sono qui sotto! 

Nota: la parola CLIP nel testo che segue non è un segnaposto in attesa che io inserisca dei contenuti. Indica semplicemente che in quel punto del podcast c’è uno spezzone audio.

----

L’uomo seduto davanti a me, in un ristorante di Zurigo in un caldissimo giorno di giugno, ha un problema. Deve riprogrammare un vecchio computer, cosa che sa fare benissimo, ma quel computer risponde molto, molto lentamente. Per mandargli un comando e ottenere la risposta servono quasi nove ore. Cosa più importante, se si blocca per un comando sbagliato è un po’ difficile andare a spegnerlo e riaccenderlo, perché quel computer sta a cinque miliardi di chilometri di distanza.

L’uomo, infatti, è Alan Stern, principale responsabile della sonda spaziale New Horizons, partita dalla Terra nel 2006; quella che ci ha regalato le prime, bellissime immagini di Plutone e che ora va riprogrammata per esplorare le zone più remote del Sistema Solare. 

Alan Stern è il secondo da sinistra. Sì, davanti a lui c’è Chase Masterson, Leeta di Star Trek: Deep Space Nine. Coincidenze cosmiche. Non fate caso al libro sul tavolo.

Questa è la storia di come uomini e donne di tutto il mondo riescono a creare macchine così incredibilmente affidabili da sopravvivere a decenni di funzionamento continuo nel gelo nello spazio, mentre noi conviviamo sulla Terra a fatica con computer, tablet e telefonini che vanno spenti e riaccesi perché si piantano continuamente. Perché loro ci riescono e noi no?

----

Ho incontrato Alan Stern, il principal investigator della sonda spaziale New Horizons, a giugno del 2019, in occasione del festival di musica e scienza Starmus, tenutosi appunto a Zurigo. Stern era lì per presentare gli straordinari risultati della sua sonda.

(CLIP: AlanStern parla a Starmus)

I dati, appunto, arrivano lentamente perché la sonda sta a oltre cinque miliardi di chilometri e trasmette con una potenza di trenta watt: quella di una lampadina piuttosto fioca, per intenderci. E lui deve trovare il modo di riprogrammare il computer di quella sonda per cercare nuovi corpi celesti da esplorare negli anni che verranno.

Da sinistra, Cathy Olkin, Jason Cook, Alan Stern, Will Grundy, Casey Lisse e Carly Howett guardano le immagini appena arrivate da Plutone. Credit: Michael Soluri

Il lavoro di Alan Stern può sembrare lontanissimo, non solo in termini di distanza siderale, dalla nostra vita di tutti i giorni. Lui, come tutti i responsabili dei progetti spaziali, ha bisogno di sistemi informatici ad altissima affidabilità, mentre noi possiamo tranquillamente accettare che ogni tanto il nostro computer si pianti e vada riavviato pigiando un pulsante.

(CLIP: Suono di boot di Windows Vista)

Ma in realtà non è così: anche noi viviamo circondati da apparati informatici che devono assolutamente funzionare. Le nostre automobili contengono computer che ne gestiscono funzioni essenziali come la frenata; gli ascensori sono comandati da sistemi elettronici programmabili; gli aerei di linea volano grazie ai sistemi informatici di bordo. Sarebbe decisamente spiacevole se uno di questi sistemi decidesse che “Il computer ha riscontrato un problema e deve essere riavviato” proprio mentre stiamo effettuando un sorpasso o sorvolando le Alpi. La progettazione di sistemi a prova di crash informatico è insomma una cosa che ci tocca molto da vicino. 

Cose che non vuoi vedere sul cruscotto del tuo aereo.

Ma non la possiamo avere nei nostri computer, perché troveremmo indigesto il prezzo di questa affidabilità totale. I progettisti di questi sistemi, infatti, devono ricorrere a rinunce drastiche e a rimedi costosi. I loro mantra non sono il numero di megapixel della fotocamera o la risoluzione ultra HD dello schermo o i gigahertz del processore, ma la resilienza e la ridondanza.

Resilienza significa che il software che controlla tutto, ossia il sistema operativo, deve essere in grado di assegnare le giuste priorità ai vari compiti che deve svolgere, e di decidere quali di questi compiti scartare senza pietà se la situazione gliene chiede troppi contemporaneamente. Se il vostro computer si ferma completamente per qualche secondo perché sta scaricando la mail, non muore nessuno; ma se il computer di una sonda spaziale che si sta avvicinando a Marte si blocca per una manciata di secondi nel momento sbagliato perché è occupato a copiare un file o a salvare una foto, rischia di schiantarsi sul pianeta o mancarlo completamente.

Non solo: il software deve essere anche capace di riavviarsi da solo e istantaneamente in caso di problemi, qualunque cosa accada, perché nello spazio non c’è nessuno che possa premere il pulsante di reset e non c’è tempo di aspettare il caricamento dei programmi. I progettisti includono quindi un cosiddetto safe mode: una modalità minima che permette al sistema di ripartire velocemente da capo, a mente fresca, per così dire, e dedicarsi alle attività essenziali ignorando tutto il resto.

Questa non è teoria o eccesso di prudenza: sono realmente accaduti vari episodi in cui questa progettazione astuta ha salvato le missioni spaziali e in alcuni casi anche le vite degli astronauti.

Un caso classico è quello del primo allunaggio, a luglio del 1969: due astronauti, Neil Armstrong e Buzz Aldrin, stanno scendendo verso la Luna quando il computer che mantiene stabile il loro veicolo va in sovraccarico a tre minuti dall’atterraggio. Sta ricevendo troppe informazioni contemporaneamente, e segnala questo problema ai due uomini con un laconico, semplice codice: 1202.

(CLIP: Armstrong e Aldrin segnalano il 1202)

Senza quel computer i due astronauti sono spacciati, ma i tecnici sulla Terra rispondono via radio di continuare tranquillamente la discesa, ignorando la crisi informatica. È la scelta giusta, perché il software del computer si riavvia istantaneamente, scarta i compiti non strettamente necessari e si concentra sull'unica cosa davvero importante: atterrare. E i due, appunto, atterranno con successo sulla Luna ed entrano nella Storia.

Se non abbiamo tanti pezzettini d'astronauta sparsi sulla Luna è grazie in parte a una donna, Margaret Hamilton, che era direttore e supervisore della programmazione del software della missione Apollo 11, a soli 33 anni. È stata lei a progettare il computer di allunaggio in modo così resiliente, ispirata in parte da un incidente avvenuto durante una simulazione: la sua piccola figlia Lauren, che aveva portato con sé in ufficio, era riuscita a mandare in tilt il computer di bordo semplicemente pigiando dei tasti a caso. Questo chiaramente non doveva essere possibile durante una missione.

Questa resilienza, però, si paga: niente grafica, niente finestre, ma solo lettere e numeri su uno schermo rigorosamente monocromatico. Accettereste un telefonino o un computer così semplificato? Senza Fortnite, senza suonerie personalizzate, senza video e foto per Instagram, senza schermo touch 4K, e con una manciata di bei tasti robusti? Probabilmente no. E quindi niente resilienza per il vostro smartphone.

Però il software del computerino che gestisce la frenata della vostra auto con l’ABS fa a meno di tutte questi abbellimenti e quindi riesce a fare una sola cosa e a farla bene: frenare senza bloccare le ruote. Quel computerino salvavita della vostra auto è resiliente come un veicolo spaziale.

Anche Alan Stern, l’uomo che cerca di “vedere” una lampadina da cinque miliardi di chilometri di distanza, sa bene quanto sia importante questa resilienza. La sua sonda New Horizons a un certo punto aveva perso il contatto radio con la Terra proprio pochi giorni prima di raggiungere la sua destinazione principale, Plutone, dopo anni di viaggio. Senza quel contatto radio i dati raccolti sarebbero andati persi per sempre. Ma la sonda, che era andata in sovraccarico di compiti da svolgere, si era resa conto della situazione e si era riavviata da sola, andando in safe mode e dando priorità assoluta alle trasmissioni, e così aveva ripreso il contatto con la Terra appena in tempo.

L’altro asso nella manica di questi computer ultra-affidabili è la ridondanza: tutti i componenti principali, dal processore alla memoria ai sensori, sono duplicati o triplicati. Se se ne guasta uno, subentra l’altro: se va in crisi anche quello, entra in azione il terzo, e così via. Ovviamente questo significa dover installare il doppio o il triplo dei componenti, occupando molto più spazio e quasi raddoppiando o triplicando i costi. Una scelta accettabile per un veicolo spaziale, che costa comunque milioni, ma non per un computer o uno smartphone che vogliamo che sia sempre più compatto e leggero e che costi sempre meno. Sarebbe come andare in giro sempre con quattro ruote di scorta: inutile quando c’è un gommista ogni pochi chilometri, ma molto opportuno se c’è da attraversare un deserto roccioso.

Anche questa ridondanza è un trucco che troviamo anche qui sulla Terra, ma solo nei sistemi informatici che proteggono cose essenziali: negli aerei di linea, appunto, per esempio, e nelle automobili dotate di sistemi avanzati di guida assistita. Questi sistemi devono avere tempi di analisi e reazione rapidissimi e devono funzionare sempre, e quindi le loro memorie e i loro processori sono ridondati, ossia duplicati; addirittura in molti casi l’intero computer è installato in due esemplari completi e ce n’è un terzo, differente, che decide cosa fare se gli altri due non concordano.

L’informatica spaziale, come quella terrestre, continua a evolversi, e la sua nuova frontiera è l’intelligenza artificiale: le sonde più recenti non chiedono più l’aiuto a casa, ma trovano da sole il punto giusto dove atterrare grazie a software di bordo che analizzano le immagini delle telecamere di navigazione e riconoscono crateri, massi e altri ostacoli da evitare. Anche questo software deve essere perfettamente affidabile e privo di esitazioni.

Zibi Turtle è un'altra di quelle persone che lo sa bene: è una collega di Alan Stern. Anche lei è coordinatrice di un progetto spaziale molto ambizioso: la prima sonda capace di atterrare e ripartire in volo per esplorare Titano, una delle lune di Saturno, alla ricerca di indizi chimici della vita. Lo farà nel 2036. La sonda, denominata Dragonfly, sarà così lontana, a un miliardo e quattrocento milioni di chilometri, che i suoi segnali ci metteranno ore, alla velocità della luce, ad arrivare al centro di controllo, per cui il suo software dovrà essere in grado di decidere da solo come volare e dove atterrare. Non potrà aspettare comandi dalla Terra.

Via Zoom, Zibi Turtle mi ha spiegato come Dragonfly, che è in sostanza un laboratorio volante simile a un grosso drone a otto eliche, dovrà cavarsela completamente da solo su Titano.

(CLIP: Zibi spiega)

Le sue decisioni saranno guidate dal software di bordo, che dovrà fare riconoscimento delle immagini in tempo reale. Se il software dovesse sbagliare, addio sonda, e quindi anche qui sarà necessario adottare resilienza e ridondanza.

Quello stesso riconoscimento delle immagini che permetterà a questo “ottocottero” di esplorare una luna lontanissima è quello che, in forma più semplice, riconosce i volti quando facciamo le foto con il telefonino, ed è quello che, in forma molto più sofisticata, agisce nelle automobili più moderne, che possono decidere di frenare autonomamente perché hanno riconosciuto la sagoma di un bambino che sta attraversando di corsa la strada senza guardare e hanno attivato il freno ben prima che il conducente avesse il tempo di rendersi conto del pericolo e reagire.

(CLIP: Allarme di collisione)

Alla fine, insomma, gli investimenti spaziali hanno ricadute molto concrete sulla Terra, grazie a persone come Alan Stern, Zibi Turtle, Margaret Hamilton e a tante altre come loro, sparse per il mondo.

Ed è così che le pigiate incoerenti di una bambina sulla tastiera di un computer spaziale mezzo secolo fa hanno creato un intero settore, l’ingegneria del software, che vale circa 400 miliardi di dollari, e ci hanno portato qui, sul nostro fragile pianeta, ad avere voli sempre più sicuri e automobili che frenano ed evitano incidenti, spesso meglio di quanto farebbero i loro conducenti umani. Ma al tempo stesso, la corsa al risparmio ci dà computer che invece s’impallano puntualmente, contando sul fatto che arriverà la nostra semplice, affidabile mano a spegnerli e farli ripartire. 

---

Aggiornamento (2021/07/28): Alan Stern l’ha fatto di nuovo: ha appena annunciato il completamento con successo di un aggiornamento software su New Horizons, a 7,5 miliardi di km dalla Terra. Fantastico.

 

Fonti aggiuntive: Increment.com; Nautil.us

2021/07/20

Blue Origin porta brevemente nello spazio i primi passeggeri

Poco fa il veicolo suborbitale New Shepard dell’azienda privata statunitense Blue Origin ha effettuato il suo primo volo spaziale con passeggeri. Il vettore riutilizzabile è partito da una base privata dell’azienda in Texas e ha trasportato alla quota di oltre 100 km, quindi a tutti gli effetti nello spazio, i suoi quattro passeggeri: Jeff Bezos (fondatore di Blue Origin e di Amazon e attualmente uomo più ricco del mondo), Mark Bezos (fratello di Jeff), Oliver Daemen (18 anni) e Wally Funk (82 anni).

Daemen è diventata la persona più giovane della storia ad andare nello spazio, grazie al biglietto pagato dalla famiglia: il record precedente spettava al russo Gherman Titov, che nel 1961 fece un volo spaziale (ma orbitale) all’età di 25 anni. Daemen è anche il primo passeggero pagante di Blue Origin: il volo degli altri passeggeri è stato offerto da Bezos o dall’azienda.

Wally Funk è diventata invece la persona più anziana a superare i 100 km di quota, battendo il primato detenuto da John Glenn, che nel 1998 fece un volo orbitale a bordo dello Shuttle all’età di 77 anni. Funk, pilota d’aereo professionista, è una delle Mercury Thirteen, le donne che negli anni Sessanta furono sottoposte, senza l’avallo ufficiale della NASA, agli stessi test fisici e attitudinali previsti per gli astronauti statunitensi e li superarono, dimostrandosi in alcuni casi candidate migliori degli uomini. Si offrirono come potenziali astronaute, ma la politica americana dell’epoca vietò loro di partecipare a missioni spaziali. I russi, invece, fecero volare nello spazio una donna, Valentina Tereshkova, già nel 1963. 

Se volete saperne di più su Wally Funk, consiglio questo video:

Va notato che questo volo commerciale è, appunto, suborbitale e quindi non ha raggiunto le altissime velocità necessarie per restare in orbita come nei voli spaziali normali (per esempio quelli degli astronauti professionisti che raggiungono la Stazione Spaziale Internazionale), ed è durato poco più di dieci minuti, di cui circa quattro trascorsi in assenza di peso. È arrivato a poco più di 100 km di quota e 3500 km/h, mentre la Stazione Spaziale Internazionale sta a 400 km e vola a 28.000 km/h. Inoltre gli occupanti della capsula (battezzata RSS First Step, dove RSS sta per Reusable Space Ship) sono stati puri passeggeri, privi di qualunque possibilità di pilotaggio, e tutto questo ha ridotto enormemente i requisiti fisici e di addestramento. 

Non si tratta insomma di un volo particolarmente innovativo in termini tecnologici, dato che ricalca in piccolo i voli suborbitali già fatti negli anni Sessanta (per esempio da Alan Shepard), ma è una tappa significativa nella commercializzazione del volo spaziale.

I parametri ufficiali del volo sono i seguenti: la capsula con i passeggeri ha raggiunto la quota massima di 107 km sul livello medio del mare; il vettore è arrivato a 106 km; il volo è durato in tutto 10 minuti e 10 secondi; la velocità massima di salita è stata di 3.595 km/h.

Foto ufficiale dei passeggeri: da sinistra, Mark Bezos, Jeff Bezos, Oliver Daemen e Wally Funk.
La traiettoria di volo.
I passeggeri salgono la lunga scala che li porta in cima al vettore New Shepard.
Decollo.
La capsula scende appesa a tre paracadute, al rientro dallo spazio.
La capsula poco dopo l’atterraggio.
Wally Funk festeggia la fine di sessant’anni di attesa per andare nello spazio.

Questo volo è il primo ad avere quattro persone a bordo che vanno nello spazio per la prima volta.

La diretta streaming del volo.

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.