È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.
Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.
Buon ascolto, e se vi interessano il testo integrale e i link alle fonti di questa puntata, sono qui sotto.
---
Credit immagine del listato: Rainmaker1973.
[CLIP: Rumore ambientale di sala computer d’epoca]
Siamo nel 1971. A Cambridge, nel Massachusetts, presso la società di ricerca e sviluppo Bolt Beranek e Newman Inc., che lavora per l’esercito statunitense, c’è un giovane programmatore, Robert Thomas, che tutti chiamano Bob. Bob ha appena scritto un programma sperimentale, che verrà battezzato Creeper, che è capace di trasferirsi da un computer a un altro attraverso ARPANET, uno dei precursori di Internet; per l’epoca è un risultato eccezionale.
Creeper diventa il primo worm informatico, ossia il primo programma capace di diffondersi e autoreplicarsi nei sistemi informatici che riesce a raggiungere. Un collega di Bob, Ray Tomlinson, quello che inventerà l’uso della chiocciolina negli indirizzi di mail, modifica Creeper in modo che invece di trasferirsi crei una copia di se stesso e quindi si moltiplichi. In questo modo nasce il primo software autoreplicante, ossia capace di prendere le risorse dell’ambiente per creare un proprio duplicato.
Che cosa succederebbe se questa capacità si applicasse alle macchine? Se per esempio si inventasse un robot, come quello proposto di recente da Elon Musk, e lo si rendesse capace di costruire copie di se stesso? Non è pericoloso?
Questa è la storia degli automi autoreplicanti, di come un uomo li concepì addirittura negli anni Quaranta del secolo scorso, e di come quegli automi potrebbero contenere la risposta alle domande sull’esistenza di vita intelligente extraterrestre.
Benvenuti alla puntata dell’11 novembre 2022 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Scopriremo insieme perché il cielo potrebbe essere pieno di scheletri di robot. Io sono Paolo Attivissimo.
[SIGLA di apertura]
John von Neumann è stato uno dei fondatori dell’informatica moderna. Matematico, fisico, informatico, collaboratore del progetto Manhattan per la realizzazione della bomba atomica durante la Seconda Guerra Mondiale, sviluppatore della dottrina della distruzione reciproca garantita che ha impedito per oltre settant’anni l’uso militare di armi nucleari, Neumann ha contribuito allo sviluppo di moltissimi settori della scienza; troppi per citarli tutti qui.
Fra il 1948 e il 1949, in una serie di conferenze alla University of Illinois, John von Neumann propose il concetto di automa autoreplicante, ossia di una macchina capace di creare una copia perfetta di se stessa usando soltanto le materie prime disponibili nel suo ambiente e una serie di istruzioni.
È quello che fa, in sostanza, ogni essere vivente. Farlo fare a una macchina era solo un’idea, un esperimento di fantasia abbastanza grossolano (almeno per gli standard scientifici di una mente come quella di von Neumann), per capire se una cosa del genere era almeno concettualmente possibile, perché all’epoca mancavano le risorse tecniche per realizzare un robot del genere nel mondo reale.
Ma in campo informatico, dove le cose erano più astratte e semplici, cominciava a essere fattibile una ricerca più approfondita. Così von Neumann formalizzò la sua idea insieme al collega Stanislaw Ulam (un altro personaggio che meriterebbe una storia a parte tutta sua). Propose così gli automi cellulari, ossia dei mondi virtuali ipersemplificati, composti da una griglia di celle e simulabili con un calcolatore, nei quali le celle potevano essere “vive” o “morte” e reagivano in base a regole elementari. Per esempio, se una cella aveva meno di due celle vive adiacenti, moriva, mentre una cella morta con tre celle vive adiacenti diventava viva. Se avete mai giocato a Life, un gioco per computer nato negli anni Settanta ad opera di John Conway e tuttora giocabile online, per esempio presso Playgameoflife.com, avete interagito con un automa cellulare.
La cosa sorprendente di questi automi informatici è che da regole semplicissime emergono comportamenti e strutture di complessità straordinaria. Lo si vede anche in biologia, per esempio nei rapporti fra le cellule, ed è possibile usare questi automi semplici per simulare strutture neurologiche capaci di riconoscimento e apprendimento. L’attuale boom dell’intelligenza artificiale si basa anche su questa ricerca di ormai settant’anni fa, grazie alla quale emerge anche l’ipotesi che i comportamenti complessi che osserviamo in natura siano in realtà la conseguenza di un insieme di regole estremamente semplici ma applicate in massa e per molto tempo.
Se così fosse, qualunque comportamento sofisticato, dalla traduzione al disegno artistico alla composizione di una sinfonia, sarebbe riducibile a poche, semplici istruzioni ripetute tante volte e su vasta scala. I successi di software di generazione di immagini basati su reti neurali, come DALL-E, Stable Diffusion e MidJourney, di cui vi ho già raccontato in questo podcast e la cui versione più recente ha raggiunto ormai livelli di qualità inquietanti, sembrano dimostrare questo principio.
Ma che cosa succede se si prende quel concetto di automa autoreplicante e lo si applica non al software ma al mondo reale? È qui che entrano in gioco nientemeno che gli extraterrestri.
---
I robot capaci di fabbricare altri robot uguali partendo dalle materie prime presenti nell’ambiente sono il sogno e anche l’incubo di qualsiasi imprenditore del settore.
[CLIP Musk presenta una versione preliminare di Tesla Bot]
Per esempio, nel 2021 Elon Musk ha annunciato Optimus, o Tesla Bot, un robot umanoide generalista che a suo dire sarà disponibile sul mercato entro il 2023, sarà gestito da un sistema di intelligenza artificiale e sarà in futuro in grado di fare “qualunque cosa che gli esseri umani non desiderino fare”, secondo la descrizione fatta da Musk. Per ora se ne sono visti soltanto alcuni prototipi parzialmente funzionanti, lontanissimi dall’autonomia e dalle capacità fantasticate da Elon Musk, ma ci sono molte altre aziende che da decenni lavorano alla realizzazione di robot generalisti. In tutto questo tempo i risultati sono stati scarsi, a differenza di quelli dei robot specializzati, che invece sono ormai una realtà consolidata nelle industrie.
C’è poco interesse concreto per un robot generalista per varie ragioni, una delle quali è il fatto che se un robot è in grado di fare qualunque cosa, allora è anche capace di costruire una copia di se stesso e quindi chi li dovesse mettere in vendita si troverebbe con il problema che i suoi primi esemplari venduti sarebbero anche gli ultimi, perché i compratori userebbero i propri robot per costruirne altri e saturare il mercato, a meno che vengano introdotti nel software di questi robot delle regole che vietino l’autoreplicazione. Regole che, come dimostra la storia dell’informatica, sarebbero comunque facilmente aggirabili.
Ma invece di pensare a un robot che porta i sacchetti della spesa si può pensare più in grande. Molto più in grande. Ed è qui che l’idea dell’automa autoreplicante assume un ruolo da capogiro.
Immaginate un robot autoreplicante che venisse mandato, per esempio, sulla Luna e fosse in grado di usare le materie prime locali per costruire un gran numero di copie di se stesso e dei macchinari necessari per costruire una base abitabile permanente. Con l’hardware e il software giusto, insomma, non sarebbe necessario spedire tutte le macchine e le strutture dalla Terra: basterebbe mandare una piccola squadra iniziale di robot che sfruttassero le risorse trovate sul posto.
Uno studio della NASA del 2004 [Toth-Fejel, Tihamer. Modeling Kinematic Cellular Automata: An Approach to Self-Replication] ha proposto proprio questo approccio per l’esplorazione spaziale e per creare miniere di materie prime negli asteroidi. Il costo iniziale è alto, ma una volta realizzato il lotto iniziale tutto il resto è sostanzialmente gratuito, e quando finisce la costruzione di un avamposto o di una miniera i robot possono essere riutilizzati per costruirne altri altrove.
Però questa è una visione ancora poco ambiziosa rispetto a quella delle cosiddette sonde spaziali di von Neumann.
---
Nel 1980 il nanotecnologo statunitense Robert Freitas studiò in dettaglio [A Self-Reproducing Interstellar Probe. J. Br. Interplanet. Soc. 33: 251–264; Comparison of reproducing and nonreproducing starprobe strategies for galactic exploration, JBIS 33, 402-406] l’idea di lanciare una singola, immensa astronave-automa, capace di raggiungere un altro sistema solare vicino e di usare le materie prime trovate all’arrivo per fabbricare altre astronavi che hanno lo stesso, semplice mandato: raggiungere la stella più vicina e sfruttarne i pianeti per costruire altre astronavi, e così via, con una crescita esponenziale del numero di veicoli spaziali in circolazione.
Applicando su scala cosmica i princìpi degli automi cellulari di von Neumann, Freitas arrivò a una conclusione sorprendente: anche senza usare sistemi di propulsione presi dalla fantascienza e restando quindi ben al di sotto della velocità della luce, e dando a ciascuna astronave cinquecento anni per raggiungere la propria destinazione e costruire una copia di se stessa, sarebbe possibile visitare ognuno degli oltre cento miliardi di sistemi solari della nostra galassia nel giro di alcuni milioni di anni. Regole semplici e crescita esponenziale applicata per lunghi periodi hanno effetti decisamente difficili da immaginare.
Probabilmente state pensando che alcuni milioni di anni sono un periodo di tempo un pochino lungo per qualunque ambizione colonialista o di costruzione di imperi galattici. È vero su scala umana. Ma bisogna considerare che l’universo ha circa 13,7 miliardi di anni. Questo significa che qualunque civiltà tecnologica extraterrestre che fosse arrivata, nel lontano passato, a un livello tecnico tale da permetterle di costruire questi automi autoreplicanti interstellari avrebbe avuto tempo assolutamente più che sufficiente per farli arrivare fin nei più remoti angoli della galassia, e per farlo anche più di una volta.
Va ricordato, fra l’altro, che non è necessario che quella civiltà duri milioni di anni: deve solo costruire la flotta iniziale, che poi andrà avanti da sola a riprodursi e a colonizzare lo spazio stella dopo stella, in un gioco di Life inimmaginabilmente vasto, anche dopo che la civiltà che l’ha avviato si sarà estinta.
In altre parole, l’universo è talmente antico che se ci sono state civiltà tecnologiche prima di noi, hanno avuto tempo in abbondanza per disseminare il cosmo di loro emissari robotici, molti dei quali saranno arrivati alla fine della loro vita operativa e giacciono abbandonati su mondi lontani, in attesa di essere trovati da futuri esploratori. Ed è per questo che partendo da semplici regole d’informatica dettate settant’anni fa possiamo dire che il cielo probabilmente è pieno di scheletri di robot.
Fonti aggiuntive:
Cybereason,
The Generalist Academy.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.