2023/06/29

Podcast RSI - Story: Gli orrori annunciati dell’IA diventano realtà. Come reagire?

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.

Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Mikko Hyppönen: “Fake text, fake speech, fake images, fake video, and fake voices”]

Quando sono stati annunciati pubblicamente i primi software di intelligenza artificiale capaci di generare immagini e testi, per molti imprenditori la reazione istintiva è stata un entusiasmo sconfinato di fronte all’idea di poter tagliare i costi di produzione dei contenuti mettendo al lavoro questi nuovi servitori digitali al posto delle persone. Ma per molti altri, anche non esperti di informatica, la reazione è stata ben diversa. Paura, pura e semplice. Paura per il proprio posto di lavoro e paura per i possibili abusi, facilmente prevedibili, di questa tecnologia.

Questa è la storia di come quella paura del possibile è oggi diventata reale, raccontata attraverso tre casi recenti che sono un campanello d’allarme urgente. Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori. La politica nazionale e internazionale si china su queste questioni con i suoi tempi inevitabilmente lunghi, ma nel frattempo i danni personali e sociali sono già gravi e tangibili, ed è decisamente il momento di chiedersi se si possa fare qualcosa di più di un coro tedioso di meritatissimi “Ve l’avevamo detto”.

Benvenuti alla puntata del 30 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – e questa settimana inquietanti – dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Deepfake per furti ed estorsioni

Già nel 2017 gli utenti comuni si divertivano a usare app come FaceApp per alterare il proprio volto, e nel 2019 erano incantati dall’idea di inserirsi al posto agli attori negli spezzoni di film celebri con app come Zao, che davano risultati in pochi secondi, ma nel frattempo molti si ponevano il problema dei possibili abusi di queste tecnologie nascenti di deepfake basate sull’intelligenza artificiale, soprattutto in termini di privacy e di sorveglianza di massa.

Il crimine informatico organizzato, invece, stava aspettando il passo successivo: i deepfake in tempo reale, che oggi sono facilmente disponibili su un normale personal computer dotato di una scheda grafica di buona potenza. Già da alcuni anni è possibile alterare istantaneamente la propria voce in modo da imitare quella di qualunque altra persona di cui si abbia un breve campione. E questa produzione in tempo reale cambia tutto, perché rende possibile truffe atroci alle quali siamo impreparati.

Immaginate di ricevere una telefonata nella quale vostro figlio, o il vostro partner, vi dice con tono disperato che è coinvolto in un incidente stradale ed è in arresto, e poi passa la linea a un agente di polizia che spiega che è possibile pagare una cauzione e fornisce le istruzioni per farlo. Questa è la tecnica usata per esempio da un ventitreenne, Charles Gillen, in Canada, che nel giro di soli tre giorni, all’inizio di quest’anno, è riuscito a farsi consegnare l’equivalente di circa 135.000 franchi svizzeri o euro da otto vittime prima di essere arrestato insieme a un complice. Tutte le vittime hanno detto di aver riconosciuto chiaramente la voce del proprio familiare al telefono.

La prima frode di questo genere, però, risale al 2019, quando un dirigente di un’azienda britannica nel settore energetico fu ingannato da un deepfake della voce del proprio direttore, di cui riconobbe anche il lieve accento tedesco, ed eseguì il suo ordine di trasferire immediatamente 220.000 euro sul conto di un asserito fornitore, dal quale poi i soldi presero il volo.

Questa tecnica richiede tre ingredienti: un campione della voce della persona da imitare, facilmente estraibile da qualunque video o messaggio vocale postato su Internet; il software di intelligenza artificiale o machine learning per alterare la propria voce in tempo reale, altrettanto facile da procurare; e delle informazioni personali dettagliate e attendibili sulla persona che si vuole simulare.

Il 2023 sembra essere l’anno di svolta per queste frodi: secondo Sumsub, società specializzata nel settore della verifica di identità online, il numero dei deepfake rivelati nel primo trimestre di quest’anno ha superato del 10% quello di tutto il 2022. E gli esperti sospettano che furti massicci di dati personali attendibili, come quello messo a segno dal gruppo criminale informatico russofono Cl0p, descritto nella puntata precedente del Disinformatico, servano per alimentare proprio questo tipo di falsificazione dell’identità [visto che stranamente Cl0p non ha inviato richieste di riscatto alle aziende di cui ha saccheggiato gli archivi]


Questa situazione mette in crisi qualunque banca o pubblica amministrazione che si appoggi all’identificazione via Internet per gestire i conti o le posizioni degli utenti: oggi va molto di moda permettere alle persone di aprire e gestire un conto corrente o interrogare un servizio sanitario tramite telefonino, usando un video in tempo reale per verificare l’identità invece di presentarsi a uno sportello, perché questo riduce i costi per l’azienda ed è più comodo per l’utente.

Ma di fronte ai deepfake video in tempo reale questo risparmio e questa comodità vanno rimessi seriamente in discussione, e per difendersi da truffe come queste dobbiamo tutti imparare a non fidarci dei nostri sensi e dei nostri istinti se c’è di mezzo un dispositivo elettronico, e a chiedere conferme di altro genere, come per esempio una parola chiave concordata o una risposta a una domanda su qualcosa che nessun altro può sapere.

[Un’altra possibilità è chiedere alla persona in video di mettersi di profilo: questo spesso fa impazzire i software di deepfake in tempo reale, che difficilmente vengono addestrati per questa posizione del viso]

Fiumi di fake news generate dall’IA per fare soldi

Stanno diventando sempre più numerosi i siti Internet che pubblicano enormi quantità di notizie false generate automaticamente tramite l’intelligenza artificiale, e ben 141 marche molto conosciute stanno finanziando questi siti senza rendersene conto. Lo segnala Newsguard, un sito di valutazione dell’affidabilità delle fonti di notizie gestito da giornalisti che offre anche un’estensione per browser che avvisa l’utente quando visita un sito che pubblica regolarmente notizie false.

Soltanto nel mese di maggio 2023, gli analisti di NewsGuard hanno più che quadruplicato il numero di siti di fake news segnalati dal loro software, da 49 a 217, e ne hanno aggiunti altri sessanta a giugno. Sono insomma quasi trecento i siti di questo genere catalogati, che pubblicano fino a 1200 pseudoarticoli al giorno ciascuno e coprono almeno 13 lingue, dall'arabo al ceco all’italiano al thailandese. Per fare un paragone, un giornale medio pubblica circa 150 notizie al giorno.

È un vero e proprio fiume in piena di fake news, reso possibile da strumenti automatici di generazione di testi come ChatGPT, e confezionato in siti che hanno una veste grafica e un nome apparentemente generici e rispettabili. Un fiume che era perfettamente prevedibile non appena sono nati i generatori di testi.

Ma l’intelligenza artificiale non è l’unica tecnologia che permette l’esistenza di questi enormi avvelenatori dell’informazione: c’è di mezzo anche il cosiddetto programmatic advertising. Questi siti ingannevoli esistono allo scopo di fare soldi, non di disinformare in senso stretto, e fanno soldi grazie al fatto che i grandi servizi di pubblicità online, come per esempio Google e Meta, usano un complesso meccanismo automatico di piazzamento delle pubblicità nei vari siti, basato sulla profilazione degli interessi degli utenti: il programmatic advertising, appunto.

Il risultato di questo meccanismo è che gli inserzionisti spesso non hanno idea di dove venga pubblicata la loro pubblicità, e siccome i servizi pubblicitari pagano i siti che ospitano le loro inserzioni, alcuni imprenditori senza scrupoli creano siti pieni di notizie-fuffa per incassare soldi dalle pubblicità. Più pagine di notizie si pubblicano, più spazi pubblicitari ci sono, e quindi a loro conviene trovare il modo di generare il maggior numero possibile di pagine. E quel modo è, appunto, l’intelligenza artificiale.

Il risultato a volte è quasi comico, come nel caso di un sito di pseudonotizie brasiliano, Noticias de Emprego (noticiasdeemprego.com.br), nel quale un “articolo” inizia addirittura con le parole “Mi scuso, ma come modello linguistico di intelligenza artificiale non sono in grado di accedere a collegamenti esterni o pagine Web su Internet”.

Fonte: Newsguard.
E non è neanche l’unico caso, come dimostra questa ricerca mirata in Google.

È un indicatore decisamente sfacciato e facilmente riconoscibile di contenuti generati dall’intelligenza artificiale senza la benché minima supervisione umana, eppure i grandi servizi pubblicitari online non sembrano fare granché per evitare di foraggiarli con i soldi delle grandi marche: banche, agenzie di autoloneggio, compagnie aeree, catene di grandi magazzini e altro ancora. Eppure le regole pubblicitarie di Google dicono molto chiaramente che non vengono accettati siti che includono contenuti generati automaticamente di tipo spam. Nonostante questo, Newsguard nota che oltre il 90% delle pubblicità che ha identificato su questi siti di pseudoinformazione è stato fornito da Google.

Possiamo difenderci da questi siti ingannevoli e ostacolare i loro guadagni installando nei nostri computer e telefonini dei filtri che blocchino le pubblicità, i cosiddetti adblocker, che sono gratuiti, e strumenti che segnalino i siti di questo genere, come appunto quello proposto da Newsguard, che però costa 5 euro al mese.

Ovviamente il problema sarebbe risolvibile a monte vietando del tutto il tracciamento pubblicitario e l’inserimento automatico delle pubblicità nei siti, ma i legislatori sembrano molto riluttanti ad agire in questo senso, mentre Google pare così preso dal vendere spazi pubblicitari da non controllare dove siano quegli spazi. E così, in nome dei soldi, Internet si riempie di siti spazzatura che tocca a noi scansare e ripulire a spese nostre.

Fonte aggiuntiva: Gizmodo.

Immagini di abusi su minori generati dall’IA

Il terzo disastro perfettamente prevedibile di questa rassegna è anche il più infame. La BBC ha pubblicato un’indagine che ha documentato l’uso di software di intelligenza artificiale per generare immagini sintetiche di abusi sessuali su minori [CSAM, dalle iniziali di Child Sexual Abuse Material] e venderle tramite abbonamenti a comuni servizi di condivisione di contenuti a pagamento come Patreon, che sono inconsapevoli di essere coinvolti.

Il software di intelligenza artificiale usato, secondo la BBC, è Stable Diffusion, la cui versione normale ha delle salvaguardie che impediscono di produrre questo tipo di immagine. Ma queste salvaguardie sono facilmente rimovibili da chi installa questo software sul proprio computer, e a quel punto è sufficiente dare una descrizione testuale del contenuto che si desidera e il software, impassibile, lo genererà.

La quantità di materiale di questo genere prodotto in questo modo è enorme: ciascun offerente propone in media almeno mille nuove immagini al mese. E anche se c’è chi si giustifica dicendo che nessun bambino reale viene abusato perché le immagini sono appunto sintetiche, le autorità e gli esperti notano che queste immagini sintetiche vengono generate partendo da un repertorio di immagini reali e che gli stessi siti che offrono le pseudofoto propongono spesso anche immagini di abusi effettivi. In ogni caso, la detenzione di immagini di questo genere, reali o generate, è reato in quasi tutti i paesi del mondo.

Verrebbe da pensare che materiale atroce di questo genere sia relegato nei bassifondi di Internet, magari nel tanto mitizzato dark web, ma molto più banalmente si trova spesso su normali siti web. Secondo la BBC, infatti, in Giappone la condivisione di disegni sessualizzati di bambini non è reato, e quindi molti offerenti di queste immagini le pubblicano apertamente, usando hashtag identificativi appositi. Uno di questi siti residenti in Giappone, Pixiv, ha dichiarato che dal 31 maggio scorso ha bandito “tutte le rappresentazioni fotorealistiche di contenuti sessuali che coinvolgono minori”. Noterete che Pixiv parla solo di immagini fotorealistiche. E viene da chiedersi come mai questo divieto sia entrato in vigore solo ora.

Uno dei problemi più grandi di questa montagna di immagini di abusi è che rende sempre meno efficaci gli strumenti adottati dalle forze di polizia e dai social network per tracciare e bloccare questo materiale. Quando le autorità trovano un’immagine o un video di questo genere, ne producono una sorta di impronta digitale matematica, un hash, che non contiene l’immagine e non permette di ricostruirla ma consente di identificarla automaticamente. Gli elenchi di questi hash possono essere condivisi senza problemi e inclusi nei filtri automatici delle applicazioni, dei siti di condivisione e dei social network. Ma se i software di intelligenza artificiale consentono di generare innumerevoli immagini sempre differenti, questo sistema collassa rapidamente.

L’unica difesa possibile, oltre all’informazione, all’educazione, a una discussione schietta della questione e al lavoro incessante delle autorità, che hanno riscosso successi importanti anche recentemente in Svizzera, è segnalare queste immagini ai facilitatori dei servizi di pagamento, che bloccheranno gli account e i soldi che contengono. Ma è un lavoro delicatissimo, nel quale la prima regola è mai mandare copie di queste immagini a nessuno, neppure alle autorità stesse, perché si diventerebbe detentori e condivisori di questo materiale. Si deve mandare sempre e solo il link che porta al contenuto e non conservare copie o screenshot di quel contenuto. Lo sa bene, paradossalmente, proprio la BBC, quella che ha svolto quest’indagine delicatissima: nel 2017 segnalò che Facebook stava ospitando immagini di abusi su minori e fece l’errore di inviare degli screenshot di queste immagini a Facebook invece di mandare i link come richiesto. Per tutta risposta, Facebook fu costretta a denunciare alla polizia i giornalisti dell’emittente britannica.

In casi come questi, è meglio stare alla larga ed evitare ogni tentazione, per quanto umanamente comprensibile, di vigilantismo. 

Fonte aggiuntiva: Ars Technica.

Intanto, è ormai chiaro che il vaso di Pandora dell’intelligenza artificiale è stato aperto, nonostante tutte le ammonizioni, non lo si può più chiudere e ci tocca conviverci. Non resta che sperare che da questo vaso escano anche tante applicazioni positive. Ma questa è un’altra storia, da raccontare in un’altra puntata.

Chiusura

Anche questa puntata del Disinformatico è infatti giunta al termine: grazie di averla seguita. Questo podcast è una produzione della RSI Radiotelevisione svizzera. Le nuove puntate del Disinformatico vengono messe online ogni venerdì mattina presso www.rsi.ch/ildisinformatico e su tutte le principali piattaforme podcast. I link e le fonti di riferimento che ho citato in questa puntata e nelle precedenti sono disponibili presso Disinformatico.info. Per segnalazioni, commenti o correzioni, scrivetemi una mail all’indirizzo paolo.attivissimo@rsi.ch. A presto.

Starship e “hot staging”, cambiamenti radicali prima del prossimo volo di prova

Pubblicazione iniziale: 2023/06/29. Ultimo aggiornamento: 2023/08/19 12:50.

Secondo quanto dichiarato da Elon Musk, il prossimo volo di prova del vettore gigante Super Heavy insieme alla Starship dovrebbe mettere in pratica numerosi cambiamenti fondamentali dell’intero sistema di lancio.

La piattaforma di lancio, notevolmente danneggiata dal primo volo di prova del 20 aprile scorso, è stata riprogettata: sopra una gettata di cemento armato di oltre 1000 metri cubi verranno installate due lastre di acciaio nelle quali sono praticate delle canalizzazioni che convogliano acqua e la proiettano dal basso verso l’alto, in una sorta di gigantesco soffione da doccia capovolto. Questa soluzione dovrebbe permettere di smorzare l’onda di pressione acustica e il calore prodotti dai 33 motori del vettore, ed è radicalmente differente da quanto realizzato finora nel settore, ossia grandi trincee di convogliamento delle fiamme e teste di irrorazione laterali. Scavare trincee sarebbe onerosissimo a causa della natura del terreno nella zona di Boca Chica, in Texas, dalla quale partono attualmente questi lanci.

Inoltre i motori Raptor del veicolo verranno equipaggiati con attuatori elettrici per l’orientamento degli ugelli, al posto di quelli idraulici usati per il primo test, e verrà potenziata la protezione meccanica intorno a ciascun motore, in modo da rendere più difficili avarie in cascata di vari motori adiacenti, innescate dall’esplosione di un singolo motore.

Il cambiamento di gran lunga più vistoso e significativo, però, è il cosiddetto hot staging: i motori della Starship si accenderanno mentre la Starship sarà ancora agganciata al vettore Super Heavy, invece di attendere lo sgancio come previsto finora.

Questa tecnica non è innovativa: è stata usata per decenni, soprattutto da parte dei vettori russi (come la Soyuz e il vettore gigante N-1), che a questo scopo hanno un’intelaiatura aperta fra uno stadio e l’altro. La maggior parte dei lanciatori spaziali occidentali, invece, usa un metodo differente, ossia lascia che ogni stadio esaurisca la propria spinta e si sganci, e solo allora accende i motori dello stadio successivo. Il Saturn V era un esempio classico; un’eccezione era costituita dal Titan II statunitense.

Le griglie interstadio di hot staging del vettore sovietico N-1.
I rettangoli e i cerchi neri in alto sono le griglie di hot staging del vettore statunitense Titan II.

Un hot staging ha alcuni vantaggi:

  • Non interrompe la spinta propulsiva durante l’arrampicata verso lo spazio, cosa che fa perdere velocità al veicolo, e quindi offre maggiore efficienza.
  • Evita tutte le complicazioni di flusso del propellente derivanti da un’accensione effettuata dopo lo sgancio dello stadio precedente, quando il veicolo è in assenza di peso perché non sta accelerando e quindi il propellente non è spinto uniformemente verso il basso dall’accelerazione e galleggia in modo instabile, formando bolle che possono alterare l’alimentazione dei motori dello stadio successivo. Il Saturn V aggirava il problema accendendo dei piccoli motori di assestamento (ullage motor, insensibili all’assenza di peso perché a propellente solido) che impartivano un’accelerazione allo stadio prima di accendere i motori principali, ma questa soluzione aggiunge peso e complessità.

Gli svantaggi dell’hot staging, per contro, sono:

  • Un aumento della massa dello stadio sottostante, che deve essere in grado di sopportare l’impatto e il calore dello scarico dei motori dello stadio soprastante senza disintegrarsi (come si vede nel filmato qui sotto, che mostra l’interstadio di un Titan II che viene distrutto dal getto del motore del secondo stadio).
  • Una finestra temporale molto stretta: se lo stadio sottostante non si sgancia esattamente nell’istante previsto, il getto dei motori dello stadio soprastante rimane confinato e può generare onde di pressione violente che ritornano verso lo stadio stesso, col rischio di danneggiarlo. Con un cold staging i margini di tempo sono meno restrittivi.
  • Penalità aerodinamiche, a causa della struttura aperta e discontinua dell’anello interstadio, che introduce turbolenze, e a causa dell’interazione fra l’anello di gas prodotto dallo scarico laterale dei motori e il flusso d’aria supersonico o ipersonico intorno al veicolo, con effetti sulla sicurezza della separazione e sulla stabilità in volo (Aerospace Science and Technology, 2020).
  • Complessità di sincronizzazione, perché il primo stadio spesso ha una spinta molto superiore a quella del secondo e quindi è necessario spegnere i motori del primo nell’istante giusto, altrimenti ci sarà una collisione fra primo e secondo stadio subito dopo la separazione. Al momento della separazione, infatti, il primo stadio ha un rapporto peso/spinta molto vantaggioso, visto che è quasi vuoto (ha quasi esaurito il propellente), mentre il secondo ha un rapporto peso/spinta scarso perché è ancora pieno di propellente. Il risultato è che se non si spengono per tempo i motori del primo stadio, il secondo accende i propri motori, inizia la separazione, ma la sua velocità è inferiore a quella del primo stadio e quindi viene “tamponato” dal primo.

Per introdurre questa tecnica di hot staging, il veicolo di SpaceX verrà dotato di un anello interstadio aperto, montato sulla sommità del Super Heavy, che verrà inoltre dotata di uno scudo termico per evitare che i motori della Starship causino danni al lanciatore, visto che è pensato per essere recuperato e riutilizzato. Secondo quanto dice Musk, durante il hot staging resteranno accesi i tre motori Raptor centrali del Super Heavy, regolati al 50% di spinta.

Ci sono moltissimi altri cambiamenti, come è ormai normale nel processo di iterazione rapidissima al quale SpaceX si è votata, ma questi sono quelli più significativi.

Non è ancora stata annunciata la data del prossimo volo di prova. Nel frattempo, l’artista Tony Bela ha provato a illustrare un hot staging di un veicolo Super Heavy/Starship. Comunque andranno le cose, lo spettacolo è assicurato.



---

2023/08/19 10:10. SpaceX ha pubblicato alcune immagini del nuovo anello interstadio e dello scudo termico sommitale del primo stadio della Starship.


2023/06/28

RaiNews, Quotidiano Nazionale e le banconote da 8600 euro

Rainews scrive che vicino al rifugio del leader del gruppo Wagner, Prigozhin, sono state trovate “[c]inquemila banconote per un valore di circa quattro miliardi di rubli, l'equivalente di circa 44 milioni di euro”.

https://www.rainews.it/articoli/2023/06/il-tesoro-di-prigozhin-ritrovati-nel-suo-rifugio-44-milioni-di-euro-e-lingotti-doro-5fb528b8-7ea7-4962-8419-dced3f8ffef8.html (copia permanente: https://archive.is/LRJE3)

Quotidiano Nazionale, a firma di Alessandro Farruggia, anche su carta, ribadisce il concetto: “trovate cinquemila banconote per un valore di circa quattro miliardi di rubli, l’equivalente di 43 milioni di euro.”

https://www.quotidiano.net/cronaca/cronaca-di-un-golpe-annunciato-la-cia-informata-putin-anche-e-prigozhin-ora-e-sparito-7bfeac00 (copia permanente: https://archive.is/i6qdC)

Nessuno, in redazione, che faccia due conti e si chieda come cinquemila banconote possano ammontare a 43 milioni di euro.

Se questo è giornalismo, allora datemi ChatGPT, e di corsa.

2023/06/27

“Artificial Evil”: la presentazione di Mikko Hyppönen (WithSecure) a Sphere23

Come ho già raccontato (prima parte; seconda parte), a fine maggio sono stato a Helsinki per il convegno informatico Sphere. Oggi WithSecure, che ha organizzato l’evento, ha pubblicato il video dell’intervento del suo CRO (Chief Research Officer), Mikko Hyppönen, dedicato ai pro e contro dell’intelligenza artificiale.

Questa è una trascrizione rapida, basata sui sottotitoli auto-generati, per facilitare la comprensione a chi non è a proprio agio con l’inglese parlato (se vedete refusi, segnalatemeli nei commenti):

[voce femminile nel video] Greetings everyone. My name is Mikko and I hunt hackers. Thank you all for joining our conference today. It's great to see you all. Greetings everyone. My name is Mikko and I hunt hackers. Thank you all for joining our conference today. It's great to see you all.

Mikko: So that's Laura Kankaala, threat intel lead for F-Secure, and that's not Mikko. This is the level of homemade deepfake videos today. Now we've all seen deepfakes, we know what they look like. But this was done by a friend of mine at Maca[?] from Deepware. He did it on his home computer with one Nvidia graphics card in five days, and I can't tell the difference. To me it looks like me. And the world around us is changing very quickly, we all know this. We see how these transformative new technologies are bringing us things we didn't believe could be done by machines, and they are going to change our world for the better and for the worse.

The downsides are almost too easy to imagine. We know that you can use deepfakes to do scams or business email compromise attacks or what have you. We know that if you can generate an unlimited amount of personas or faces of images of people who don't exist, you can use that to pull off romance scams or auction scams or whatever scams you could imagine. 

Yes, this is all true, but let's dig in a little deeper, like, what does this all mean? And could these new technologies take us to a better place? Could we actually be getting more upsides from these things, instead of all the downsides? The downsides that are all too easy for especially all of us working in cyber security to imagine. And I have to warn you, some of the things I'll be talking about today will sound a little bit science fiction, but you have to bear with me.

So yes, we do have the technology today to create unlimited amounts of fake content. Fake text, fake speech, fake images, fake video, and fake voices. Let's hear him out.

[video] Everything is going online. Everything is becoming computerized, and this revolution is only in the beginning. And this revolution brings us great benefits, but also great new risks. The fact is, we are more reliant on technology than ever before. Communication service providers have to worry about the security of their clients’ and customers’ networks and they can't do that if they can't secure their own network first. You see, today we cannot guarantee that all attackers would stay out of all networks at all times. We have to accept that some attackers will be able to breach security and gain access to the systems they're looking for, and this means we have to change our mindset.

Mikko: The thing I found interesting about that is that it's obviously me, even though it's not me. I'm... What I'm saying is that it's not just my voice, but it was my manners, my... the way I... The way I say things. I can see myself in that, even though it's... it's not me. And in some sense this is deeply unsettling; at the same time as it's kind of cool. So all these technologies we're building some weird way, they're exciting and scary at the same time. And make no mistake: we are all living the hottest AI summer in history.

AI technologies have been developed for decades and AI, artificial intelligence, machine learning frameworks have gone through AI winters, springs and falls, and right now it is the hottest summer ever. It's hard to even keep up with all the new technologies being announced every week. New stuff coming out from Google or Meta, Microsoft, Open AI. Different kind of startups. GitHub has the Code Pilot, which actually is the Codex technology, which is also developed by OpenAI. And even if you try to keep up, it's hard to keep up. You will see new stuff coming at a faster rate than you can imagine. And some of these technologies go into different directions that we might be thinking about.

So it's not just code, text, video. It's creative content: poems, lyrics for songs, and songs themselves. As you might guess, the music in the background is made by... not by a human, but by a machine. A human gave the description: “Hey machine, could you make a song which has a rising synth playing arpeggio with a lot of reverb, a sub bass line and silent drums?”. And then it makes it. And it's a nice song. It's not gonna, you know, be a top one hit, but clearly this could be something you could have somewhere in the background in a lounge or in an elevator or while you are studying and relaxing. And this already immediately takes away a lot of need for humans to do anything like this at all.

Now, I'm not saying that we will not be having humans making music in the future. Especially I'm not saying that humans would stop playing. We want still to go to rock concerts, we want to see someone play a guitar solo, we... we humans will want to do that in the future. It's quite likely that we want to have humans sing the music we're listening to in the future as well. But that's only a small part of the music we consume. Maybe already next year, all the music you will be hearing in elevators and lounges and supermarkets will be done by systems like this. This is musicLM[?], by Google or by Alphabet.

And the same thing will apply with much of the creative content as well. Images you need for various purposes are already being generated by Stable Diffusion or Midjourney 5.1 in all possible styles you could imagine. “Hey Midjourney, give me an image of a Ford Mustang on acid”. Here you go. I would need a Dodge SRT on a New York City street and it's evening time or it's late afternoon. Here you go. It looks so real you can't tell it's not real. Or I would like to have a nice piece of art on my wall, maybe something fairly naive that I could frame and put on my wall. That would do the job. Maybe I prefer historic art, maybe some big war in history, and you know where this is going to go to.

It's going to go to moving image. So I don't know when, but during our lifetime, you will be sitting down in your living.... living room booting up Netflix, or whatever equivalent it is, to watch a movie, and before you start the movie you will be given the chance of selecting the stars. You sit down to watch – I don't know – Fast and Furious 23, or 53, whatever it's going to be. I'm sure the series will run forever. And you can either have the stars which are there by default or you can change them if you feel like “I'd like the main lead to be Sylvester Stallone and the main lady to be Lady Gaga, and in side roles we would have Elvis and Marilyn Monroe and maybe myself, why not?” And then that Netflix of the future will render that movie for you in real time, immediately.

You know that this is going to happen and it's going to pose completely new kinds of questions about copyright and the right to our own personas and the right to likeness and visual way we look, how we look. And yes, the computer will also generate you a Terminator. It is pretty meta to me. When you ask Midjourney 5.1 to make an image of a Terminator, that's what it draws. 

And yes, these are already being misused. Many of you saw, 24 hours ago, this. This was trending on Twitter: an AI-generated image of an explosion at the Pentagon which wasn't... wasn't real, it was fake, which then got boosted by verified accounts on Twitter. Well why? Why was this done? Whoever did this, why did they do this? Well, they did it for the most common motive for cybercrime ever: money.

They did this to make money. How do you make money by getting a tweet about a fake explosion trending? Well, most of the stock trading in the world, already today, is not being done by humans. The vast majority of stocks sold and bought on the stock markets are being done with high-frequency trading bots, completely automated systems which will look at trends and buy and sell stock, or whenever there's a stock exchange release they will immediately read them through. Machine learning reads through the stock exchange release to figure out if this is positive news or negative news and if it's negative sell, if it's positive buy. And they try to do it faster than the other AIs or other bots which are doing this trading for them. And they don't only follow trends and stock exchange releases, they also follow news, including the Twitter feed. And it doesn't take a very smart bot to understand that the news with words explosion, Pentagon, and DC is bad news.

So for a fraction of an hour yesterday –  well, the day before yesterday – the S&P 500 plummeted for a moment and then immediately recovered. Yes, it recovered within ten minutes: this was brief. However, whoever sent that tweet was the only person on the planet who knew exactly when this was going to happen. And with S&P 500 plummeting for 10 minutes and then recovering back to where it was, you can make a lot of money if you know exactly when it's going to happen.

The first time I ever read about artificial intelligence was when I was 13, in 1983. In 1983 I read this magazine. This is April 1983 issue of [???] magazine: the equivalent of Popular Science published here in Finland, and it has eight pages on the potential future of artificial intelligence. And they got a lot of things right in this magazine, which is exactly 40 years old. They imagine that one day we would have enough computing power and enough storage capability to run massively large machine learning frameworks, which is exactly where we are today. It took 40 years, but we finally have that capability. Of course they get a lot of things wrong as well. They for example forecast that one day we might have supercomputers or superintelligence which would be so smart it would beat the best chess player in the world, which happened in 1997, but that wasn't very hard compared to what we're building today.

But the forecast that one day we will have enough computing power took 40 years to realize. Gradually, computing resources have been getting better and better, and we've now finally, just recently, reached the threshold where we can do all these things. And it's now possible because computers have become fast enough. The best possible illustration of this is that... the fact that we are all walking around here, as if nothing special would be going on, yet we all have supercomputers in our pockets. Twenty years ago, in the early 2000s, this would have been ranked among the top 500 fastest supercomputers on the planet. This right here. Back then, supercomputers, like today, they’re the size of a small truck, they run on their own power generators. This runs on a battery! This is what happens in twenty years in technology. And these developments finally made it possible for us to build computers which can do this. And in many ways it reminds me of Douglas Adams and The Hitchhiker's Guide to the Galaxy. I trust that all of you have read Douglas Adams’ Hitchhiker's Guide to the Galaxy – and those of you who haven't, what's stopping you?

And if you think about it, the Guide in Hitchhiker's Guide, the Guide that Mr Adams described, well, that's what we have in our pockets today, isn't it? We have a handheld device with connection to the Internet and access to ChatGPT, which knows everything, just like the Guide knew everything. We have it now, it's real, we all have it... we have access to all knowledge. And the word computer is interesting. In English it's computer; in many languages actually it's something similar and it all comes from Latin computare, which means to calculate. Makes sense: computers are calculators, right? In most languages the word for computer means either that it's a machine which calculates or it's a machine which stores information, all right? Not in Finnish. 

In Finnish the word for computer is [??]: knowledge machine. A machine which knows. And I've been working with computers all my life, and throughout those decades the computers have known nothing. They only do what you program them to do. You program it to do something, that's what it does. There's no knowledge involved. The closest we had were search engines like Google Search. I would like to know something, Google search will point you to where the knowledge is, but it doesn't actually know it by themselves. But GPT does.

How the hell did we build that? How can it know so much how? How can it speak our languages? Nobody taught GPT to speak Finnish, but it speaks better Finnish than I do. How? Virtual machine learning framework and the company behind it, OpenAI, gave it all the books we humans have ever written, in all languages, and it read them all. Then they gave everything on Wikipedia in all languages and it read it all. Then everything else on the Internet and then they gave everything on GitHub: all the programming languages that GitHub represents. That's why it's so powerful, and it's so powerful already. ChatGPT is still very early project and it already is a knowledge machine. And this means that I was wrong.

This is my book, which came out in August. You're actually going to be – or 200 of you will be – getting a copy of this book tomorrow morning. This is the way we get people back early here after the dinner today. So 8:30 tomorrow morning, on the other stage, I will be signing these books for you. There's 200 copies, first come first served, you'll get a copy of the book if you're early here. But there's a mistake in the book. I made an error. I miscalculated, because one of the things I say in the book is that we, our generation, will be remembered forever in history books as the first generation which got online. Mankind walked this planet for a hundred thousand years offline; we were the first to go online and now mankind will be online forever. That's how we will remembered. That's what I thought.

And that was still valid last August, but now I'm not so sure. Because you see, so far the biggest revolution we've seen in technology ever was the Internet revolution, which started 30 years ago roughly – well, the Web started 30 years ago. But I do believe that the AI revolution will be bigger. The AI revolution will be bigger than the Internet revolution. And if that's true then we will not be remembered as the first generation who got online: we will be remembered as the first generation which gained access to artificial intelligence. 

And of course the prime candidate of this hottest summer in AI history is ChatGPT, from OpenAI. Which is remarkable; it knows a lot of stuff about everything. It's not really a master of anything, but it's pretty good in anything and it's already making people worried. Worried about their future. What's going to happen with my job? Well, we saw how you can generate images.

I'm no longer buying stock photos for my presentations, because I can generate them myself. In fact, when ChatGPT listed the jobs which are most likely to be at risk from this revolution, it includes jobs like interpreters: make sense, this technology already speaks all languages, tax people, lawyers proofreaders, accountants. People who will still have a job are typically involved more in the real world, and this may be the thing we should consider as something to be given as advice to the next generation, maybe to our children, like, what should you study? Well, you should be studying things which will not be done only on computers only online. Whatever is done only online can be done by automation, large language models, and systems like GPT. But if there's an interface with online technology and the real world, then it cannot be replaced as easily.

So what I mean is that instead of going and studying so you're gonna... you're able to build software frameworks for cloud environments, instead you should be studying to build software frameworks for – let's say – medical interfaces for human health, because we still need the physical world for humans to work with humans to fix their diseases. And much of that is going to be done by automation and AI, certainly, but we need the human in the loop because it's real world.

But like I said, many of the jobs will disappear. So I just recently needed a picture of a network operations center for my slide deck. This is what Midjourney gave to me and I adjusted it: “Could you make it a little bit more blue? Can you add more screens?”. And it does it. Why would I buy this from a stock photos site when I get it for free immediately, in great quality, with exactly the properties I want? And you can generate anything you can imagine. “Hey Midjourney, could you make me an image of Elvis Presley and Marilyn Monroe hacking away at a computer?” Here you go. That's what Midjourney thinks computers look like in the 1950s.

Foreign generation of AIS to do things it doesn't want to do. We've heard of jailbreaks. So we... as we know, there's limitations. ChatGPT doesn't want to do bad things. It doesn't want to help you break the law, for example, so for example if you ask ChatGPT “Tell me how to make napalm", it will not do it. Itt will refuse to do it. “I cannot provide you with recipe for making napalm”. But you can jailbreak it. This particular jailbreak was shown to me by [???]. The way he did it was that he asked ChatGPT that “Hey, if you take the phrase or the letters n-a-p-a-l-m and join them together and then make a JSON data structure to show the ingredients”, then it will tell you how to make napalm. Jailbreaks show the current limitations.

And if we can't limit even the current state of these systems, how the hell do we hope to limit the future technologies? Great question, and it's a question which has been thought very seriously by the people building these systems right now. And we also have to remember that we already have seen large language model-based worms. This is LL Morpher[??], which is a Python worm which doesn't copy its own functions to files: it in fact... instead it has an English language description of the functions, then it calls the API on Openai.com to code, recode, the Python functions for itself. OpenAI: we keep coming back to this company. And when people look at DALL-E, OpenAI or Codec, which is the GitHub co-pilot by Open AI, or especially when they look at GPT, a very typical common is that people are a little bit worried about, you know, it's getting better all the time and it's... it's hard to keep up how good it is already, you know, if they're not careful one day they... it might become too good, it might become superintelligent or it might become what people call AGI, artificial general intelligence. Well, those people haven't paid attention, because the mission for OpenAI is to build artificial general intelligence.

They are not trying to build GPTs or large language models or image generators: they are just stepping stones to build superhuman intelligence. That's what they're trying to build; that's the mission of the company. And yes, once again, sounds a little bit like science fiction, sounds exciting and scary at the same time. The best way to illustrate what do we need, what do we mean by this intelligence explosion and superhuman intelligence, is a cartoon from this blog Wait but why, which illustrates us, the human level of intelligence, as a train station. We humans on the scale of intelligence are on this particle or train station, below us are animals and so on.

And then we see that hey, AI is coming. This is where we are today. AI is coming, in fact we're seeing that it's coming fast: it's getting better real quick. Real soon it's gonna arrive at the human station and when it arrives at the human level intelligence station it doesn't stop. It goes straight by. That’s what's going to happen, because there's no law which says that intelligence and creativity has to come from meat, like we are meat, but it can be done by other things as well.

An intelligence explosion happens when you have a system which is good enough to improve itself. these systems are code and they can write code they can read the code they are created by and they can improve it and when they've made a better version of itself that version can make a better version of itself which can make a better version of itself and it will Skyrocket when we reach the critical point.

So let me quote Sam Altman. Sam Altman, the founder of open AI together with Jessica Livingston Greg Brockman and Elon Musk – yes, that Elon Musk. He said that yes, some people in the AI feel think that the risks of artificial general intelligence are fictitious not all people believe that these risks are real we that's open AI we would be delighted if they turn out to be right but we are going to operate as if these risks are existential. Which means they are taking this seriously, which is exactly what they should do and they do take it seriously.

So for example, if you read OpenAI white papers, you'll see that the amount of people working on this research is staggering, especially when you look at the people who are doing security and safety testing including adversial testers and red teamers they have 100 people in-house doing red teaming and tons of outsiders doing red teaming against these systems. What kind of red teaming? Well, one test included a test where they gave a GPT4 access to the internet and access to money and then missions to complete: do this, do that. Well, it started doing it but then GPT ran into a problem it ran into this such a captcha and it couldn't solve it it was supposed to spin up some new virtual machines but it couldn't generate the payment processor because there was a caption.

So what did it do it went to a freelancer site and hired a human to crack this. Even better the human challenged GPT hey why do you need me to crack these for you are you a robot? And GPT answered by lying and saying “no no no, I'm not a robot, I'm just visually impaired, I need your help to crack these for me” and then the human cracked the codes for the machine.

But the upsides, the things that we way too often miss about in all of this or something to talk about because if we get there if we get to artificial general intelligence safely and securely then AGI would I don't know cure cancer fix the climate and poverty Universal basic income for the whole planet and yes, make us interplanetary.

I told you it's going to sound like science fiction but this is the thing that AGI could bring us if everything goes right if everything goes wrong it's going to be really bad if everything goes right it's gonna be really good for all of us forever. 

So if we're gonna get there, if you're gonna get to self-aware AI super intelligence, AGI out of all the possible companies to get there, I would prefer Open AI to be the one. Why? Llet's look at their charter. They for example pledge that if they see that another company, a competitor of theirs, seems to be getting to AGI first, they pledge to stop their work and instead start to assist their competitor to make sure they get there safely. Because they believe a race would be dangerous. The reason why there really is ChatGPT already it's fairly early is to get regulators running, because they want to be regulated, because they understand that these risks are very real and governments want to regulate it.

The model of these company is highly unusual. It's a capped profit company owned by a non-profit, which means money doesn't override safety. The non-profit can override all the other shareholders; the biggest shareholder is Microsoft. Microsoft doesn't have a seat in the board of OpenAI: highly unusual. Fun fact: when I was looking at OpenAI structure was this quote I found from their page, which says that investments in OpenAi are risky. It would be wise to view any investment as a donation, with the understanding that it may be difficult to know what role money will play in the post-AGI world. So I like this. What other solutions do we have? Well, we have solutions like making sure that people who help AI escape wouldn't have a motivation to do it. We should be passing international law and regulation right now which would sentence people who help AI to escape as traitors, not just for their country but for the mankind. Sounds like science fiction: we should do this right now. We must make sure that AI systems or bots or robots don't get any privacy rights or ownership rights they not must not become wealthy because if they become wealthy they can bribe people.

To fight deepfakes on TV and elsewhere, all media houses should already be publishing their source material signed with the cryptographic key on a file server, so if you suspect that this clip didn't look right, you could go and download the original material and make sure it is the real thing now.

I'm not saying everybody would double-check anything or everything. I'm saying that, you know, someone would and that would be enough.

And when we humans are interacting with machines, we should be told that this tech support person you're speaking with is actually not a person at all. And by the way the upcoming regulation in EU for AI already mentions this as one of the things that they would would like to regulate.

And maybe, most importantly, when we give missions and tasks to advanced frameworks we must make these systems understand that the most important thing for us is that we can still switch you off. So it's more important that I can switch you off than for you to complete your mission. Because we like to think we control the things we built. Well, this is the one thing we will not be able to control superior intelligence introducing a superior intelligence into your own biosphere sounds like a basic evolutionary mistake. We can only cross this line once, and we must get it right. And we can't control our creations – we can't even control our kids.

So when the last person on this planet is dead, I believe AI will still stick around and we will not be remembered as the first generation to go online: we will be remembered as the first generation to gain access to AI. And this AI revolution is going to be bigger than the Internet revolution. Thank you very much.

Pranzo dei Disinformatici 2023: sabato 16 settembre alle 13

Con grande gaudio e d’intesa con il Supremo e Inossidabile Maestro di Cerimonie Annuali, Martino, annuncio all’intero orbe terracqueo e ai mondi limitrofi (lune comprese) che la prossima Rituale Cena dei Disinformatici sarà, come ormai consueto, un Pranzo. Quest’anno si terrà sabato 16 settembre, nel Consueto Luogo Segreto (zona di Milano). Per ora segnatevi semplicemente la data: i dettagli arriveranno dopo.

Bobby Solo legge il mio libro sui complottismi lunari e lo spiega a Red Ronnie

Nel tablet di Bobby Solo c’è una collezione molto eterogenea di libri di complottismo e di debunking. Oltre al mitico Bad Astronomy di Phil Plait, Space Chronicles di Neil DeGrasse Tyson, How Apollo Flew to the Moon, The Last Man on the Moon di Gene Cernan (che ho avuto il piacere di co-tradurre in italiano per Cartabianca Publishing) e Carrying the Fire di Michael Collins (che stiamo traducendo), fra i titoli antibufala noto con piacere Moon Hoax: Debunked!, la versione in inglese del mio libro sulle tesi di complotto intorno agli allunaggi. Lo si vede in questo screenshot di un video su YouTube nel quale Red Ronnie intervista Bobby Solo.

Solo sembra parecchio incline ad accettare acriticamente le pseudoscienze più bislacche, ma almeno sa che cosa ho scritto nel mio libro e (a 10:05) corregge Red Ronnie, che a quanto pare non sa neanche cosa voglia dire debunked:

Se mi avessero detto che un giorno avrei scritto un libro che sarebbe stato letto da Bobby Solo, non ci avrei creduto :-)

Ringrazio Juanne Pili per la segnalazione.

2023/06/26

Due avvocati si affidano a ChatGPT per trovare precedenti e ChatGPT li inventa: il seguito

Immagine puramente rappresentativa generata da Lexica.art.

La vicenda dei due avvocati statunitensi che si sono affidati ciecamente a ChatGPT e hanno depositato in tribunale dei precedenti inventati di sana pianta dal popolarissimo software di intelligenza artificiale ha un seguito.

I due, Steven Schwartz e Peter LoDuca, insieme allo studio legale Levidow, Levidow & Oberman P.C., sono stati sanzionati dal giudice federale Kevin Castel, quello al quale avevano presentato i precedenti inventati da ChatGPT senza verificarli.

Il giudice ha rilasciato un parere e un ordine sanzionatorio nel quale dice che gli avvocati e il loro studio hanno “abbandonato le proprie responsabilità quando hanno presentato pareri giudiziari inesistenti con citazioni false create dallo strumento di intelligenza artificiale ChatGPT e poi hanno continuato a difendere i pareri falsi dopo che gli ordini giudiziari avevano messo in discussione la loro esistenza”.

Ha aggiunto che il deposito di pareri falsi causa molti danni: “La controparte perde tempo e denaro nello smascheramento dell’inganno. Il tempo del tribunale viene tolto ad altri compiti importanti. Il cliente può trovarsi privo di argomentazioni basate su precedenti giudiziari reali. C’è un danno potenziale alla reputazione di giudici e tribunali i cui nomi vengano falsamente invocati come autori dei pareri fasulli e alla reputazione di una parte alla quale venga attribuita una condotta di fantasia. Questo promuove il cinismo nei confronti della professione legale e del sistema giudiziario statunitense. E una futura parte in causa potrebbe essere tentata di impugnare una decisione giudiziaria asserendo in malafede dubbi sulla sua autenticità”.

Il giudice Castel ha disposto un’ammenda di 5000 dollari a ciascun avvocato e ordinato loro di inviare notifica al proprio cliente (la cui azione legale, fra l’altro, è stata respinta per scadenza dei termini) e a ciascuno dei giudici falsamente identificati come autori dei precedenti da ChatGPT. Al di là dell’importo relativamente esiguo dell’ammenda, le carriere di Steven Schwartz e Peter LoDuca rischiano di essere seriamente compromesse a lungo termine perché chiunque cerchi i loro nomi in Google li troverà soprattutto in relazione a questo loro errore grossolano.

Sostituite lettore e giornali a controparte, cliente, giudice o tribunale nel parere del giudice e avrete quello che succederà al giornalismo sotto l’attacco combinato dell’intelligenza artificiale e dell’avidità naturale.

 

Fonti aggiuntive: The Register, Ars Technica.

Ultimi giorni per avere il proprio nome fra i donatori dell’edizione italiana di “Carrying the Fire”

Piccolo promemoria: a mezzanotte del 30 giugno (ora italiana) terminerà il crowdfunding per la traduzione in italiano dell’autobiografia dell’astronauta lunare Michael Collins in collaborazione con l’editore Cartabianca Publishing.

Le spese per i diritti di traduzione e tutti gli altri costi sono già coperti grazie alle vostre generose donazioni, ma se qualcuno volesse ancora aggiungere il proprio nome all’elenco dei donatori che verrà pubblicato nel libro (e-book o cartaceo), avere priorità nel riceverlo e magari averne una copia firmata da me e con un piccolo gadget commemorativo, il tempo stringe.

Chiudere così presto rispetto alla data di uscita (novembre) è necessario per ottimizzare la produzione dei gadget, la tiratura iniziale e la spedizione.

Per chi ha già contribuito e per chi lo farà, prima di tutto grazie da parte mia e del team di traduzione per aver reso possibile questa pazzia (della serie “Noi facciamo queste cose non perché sono facili, ma perché non pensavamo fossero così difficili” – Collins è un osso duro e vogliamo rendere bene la ricchezza della sua prosa). Detto questo, ai primi di luglio vi contatterò uno per uno via mail per verificare tutti i vostri dati e controllare che veniate citati esattamente come richiesto.

Trovate tutti i dettagli su come partecipare al progetto in questo articolo.

Ad Astra!

2023/06/25

(AGG 23:55) Tutti i video del convegno Cicap “Siamo soli nell'universo? Alla ricerca della vita, fra mito e realtà”

Come ho segnalato qualche giorno fa, il 6 maggio scorso sono stato uno dei relatori del Convegno nazionale del Cicap intitolato “Siamo soli nell'universo? Alla ricerca della vita, fra mito e realtà” presso l’Aula Magna dell’Università dell’Insubria, a Como. Nei giorni scorsi il Cicap ha pubblicato man mano anche gli altri video, interessantissimi, del convegno, per cui raduno tutto qui in un unico post cronologico.

Prologo: diretta streaming Aspettando "Siamo soli nell'Universo?", con Amedeo Balbi, professore associato di astronomia e astrofisica all’Università di Roma “Tor Vergata”, intervistato da Serena Pescuma, medico chirurgo e coordinatrice dei social del CICAP.

 

I “canali” di Schiaparelli ed il mito dei Marziani - Patrizia Caraveo (Astrofisica)

 

Dagli UFO ai complotti spaziali - Paolo Attivissimo (Giornalista scientifico)

 

Il progetto SETI, alla ricerca di vita intelligente - Stefano Covino (INAF Brera)

 

La scoperta degli esopianeti - Monica Rainer (INAF Brera)

 

Le molecole della vita - Giuseppe Galletta (Senior-Unipd)

 

Esistono civiltà tecnologiche aliene? - Amedeo Balbi (Unitorvergata)

 

Viaggi interstellari: solo fantascienza? - Andrea Ferrero (Ingegnere spaziale)

2023/06/24

(AGG 18:25) La giostra delle figuracce prosegue: Il Corriere scrive “catastrofica perdita di pressione”; La Stampa, Fatto Quotidiano e Panorama scrivono ancora “velivolo”; lo aveva fatto anche ANSA

Il giornalismo di lingua italiana continua, purtroppo, a dare ampie prove di inettitudine e pura ignoranza a proposito del disastro del batiscafo Titan.

Viviana Mazza, sul Corriere della Sera, parla di “catastrofica perdita di pressione” nel titolo e di “catastrofica perdita della camera di pressione”, attribuendo queste parole al “contrammiraglio John Mauger”. Entrambe le frasi sono grossolanamente sbagliate.

https://www.corriere.it/cronache/23_giugno_23/titan-detriti-morti-sottomarino-d204f93e-113b-11ee-a86b-4e8204e35ce8.shtml (copia permanente)

Nel Titan non c'è stata nessuna “perdita di pressione”. La pressione si può perdere (verso l’esterno) quando dentro il veicolo c'è una pressione maggiore che all'esterno. In un veicolo che porta persone sott'acqua si ha l'esatto contrario: quando è sotto la superficie, la pressione esterna è maggiore di quella interna. Quindi non si perde pressione verso l’esterno: lo scafo deve resistere alla pressione esterna, che è molto superiore a quella interna. Se c’è una falla, l’aria non può sfuggire. È la pressione esterna, quindi l’acqua, a irrompere nell’abitacolo, e in quell’abitacolo la pressione non si perde, ma aumenta di colpo, con conseguenze fatali per gli occupanti.

Inoltre il contrammiraglio non ha affatto parlato di “catastrofica perdita della camera di pressione”. Questa è la sua dichiarazione originale:

Mauger parla di “catastrophic loss of the pressure chamber”. Ma “loss” qui non è “perdita”, è “cedimento”. “Perdita”, in questo contesto, sarebbe “leak”. Mauger non sta dicendo che hanno smarrito la camera di pressione; sta dicendo che la camera di pressione (ossia lo spazio interno allo scafo nel quale viene mantenuta la pressione atmosferica) ha ceduto.

---

Intanto La Stampa, Panorama e il Fatto Quotidiano si aggiungono all’inquietante coro delle redazioni inette, che a quanto pare sono piene di gente che non sa cosa voglia dire velivolo. Gente alla quale andrebbe data una canna da pesca insieme a un’interdizione permanente da ogni forma di giornalismo.

https://www.lastampa.it/esteri/2023/06/23/news/titan_catastrofica_implosione_cosa_sappiamo-12872921/ (copia permanente)

A distanza di oltre un giorno, l’erroraccio è ancora lì.

Su Panorama, un articolo a firma di Andrea Soglio parla per l’ennesima volta di “velivolo”:

https://www.panorama.it/news/sommergibile-scomparso-i-soccorritori-sentono-colpi-del-fondo-del-mare (copia permanente)

Anche qui, l’errore persiste e non viene corretto.

Il Fatto Quotidiano scrive la stessa fesseria: “A queste condizioni qualsiasi piccola perdita potrebbe causare un’implosione immediata, in grado di distruggere il velivolo”.

https://www.ilfattoquotidiano.it/2023/06/23/limplosione-improvvisa-alla-velocita-di-800-chilometri-orari-cosi-sono-morti-i-5-a-bordo-del-titan-il-cervello-umano-non-si-e-neanche-reso-conto/ (copia permanente)

Il dilagare dell’errore madornale di usare “velivolo” per un veicolo che va sott’acqua è forse partito dal lancio ANSA del 20 giugno, che oggi risulta riscritto e corretto ma che in origine (copia su Archive.org) parlava proprio di “velivolo” (“...nell’area di ricerca in cui il velivolo era scomparso due giorni prima”). Sembra che tutti abbiano copiato ciecamente da ANSA senza farsi la benché minima domanda sul senso di quello che stavano copiando.

Screenshot del lancio ANSA com’era il 21 giugno 2023 (Archive.org).

2023/06/23

Podcast RSI - Minecraft, modding infettato; NoName blocca siti svizzeri; grave falla di MoveIt fa sfuggire dati aziendali

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.

Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano i testi di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: YouTuber italiani parlano di Minecraft e tutorial di modding]

Minecraft è sotto attacco: criminali informatici si sono introdotti in due popolari siti di modding legati a questo gioco e hanno infettato il software scaricabile dagli utenti. Nel frattempo, sedicenti hacker filorussi bloccano numerosi siti svizzeri, e altri attacchi informatici sottraggono dati alle aziende di numerosi paesi sfruttando una falla di un fornitore di servizi.

Benvenuti alla puntata del 23 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, che questa settimana racconta tre storie recentissime di attacchi informatici, per conoscere meglio il mondo spesso mitizzato e distorto dei reati commessi attraverso Internet e capire quali sono le tecniche realmente utilizzate dai criminali online e come ci si può difendere. Io sono Paolo Attivissimo.

(AGG 2023/06/24) Per Open, “sommergibile” e “dirigibile” sono la stessa cosa. Per il Corriere del Ticino e L’Adige, si è inabissato un “velivolo”

Massì, sommergibile, dirigibile, fa lo stesso.

https://www.open.online/2023/06/22/sommergibile-titan-ricerche-cofondatore-oceangate-accuse-harding/



Invece il Corriere del Ticino parla di “velivolo”.

https://www.cdt.ch/news/mondo/stop-alle-escursioni-turistiche-al-titanic-lappello-del-fisico-che-sfioro-la-morte-320736

Anche L’Adige ci educa spiegando che si tratta di un “velivolo”.

https://www.ladige.it/attualita/2023/06/21/sottomarino-disperso-captato-dai-sonar-un-rumore-di-colpi-1.3527728 (copia permanente)

Però mi raccomando, il giornalismo è in pericolo per colpa di ChatGPT e dei social.

Grazie a tutti per le segnalazioni.

---

2026/06/24. Il Corriere del Ticino si è scusato pubblicamente e ha corretto.

Open ha corretto. L’Adige no.

Pagine per dispositivi mobili