Cerca nel blog

2023/06/01

“Rischio di estinzione” a causa dell’intelligenza artificiale?

C’è molto clamore intorno a una dichiarazione congiunta di numerosi esperti di intelligenza artificiale che parla di “rischio di estinzione” per l’umanità a causa di questa tecnologia. La dichiarazione in sé è molto concisa: “Mitigare il rischio di estinzione a causa dell’intelligenza artificiale dovrebbe essere una priorità globale al pari di altri rischi su scala sociale come le pandemie e la guerra nucleare.”

Fra i firmatari spiccano i dirigenti di OpenAI e DeepMind, Bill Gates e professori delle più prestigiose università statunitensi e cinesi. Sono sorprendentemente assenti le firme di esponenti di Meta.

La dichiarazione è accompagnata da un comunicato stampa che paragona questa presa di posizione a quella di Oppenheimer nel 1949 a proposito dei possibili effetti dell’esistenza della bomba atomica, e non è la prima del suo genere: qualche mese fa una lettera aperta firmata da Elon Musk e vari esperti del settore ha chiesto una moratoria di sei mesi nello sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4.

Anche al recente convegno di sicurezza informatica Sphere23 di Helsinki, relatori di spicco come Mudge, Mikko Hyppönen e Ian Beacraft hanno parlato estesamente del rischio che un’intelligenza artificiale generale (Artificial General Intelligence, AGI), ossia capace di apprendere, capire ed eseguire qualunque attività intellettuale umana, possa rimpiazzare completamente gli esseri umani, e del rischio che emerga una superintelligenza artificiale i cui gestori sarebbero, in sostanza, padroni del mondo perché questa superintelligenza permetterebbe di anticipare e contrastare qualunque mossa dei rivali intellettualmente inferiori.

Ian Beacraft a Sphere23. Foto scattata da me.

Se vi state chiedendo come mai tutto questo catastrofismo arrivi proprio da coloro che stanno sviluppando gli strumenti che potrebbero causare i disastri di cui parlano, non siete i soli. Se c’è davvero bisogno di una pausa di riflessione, perché non sono loro i primi a farla, invece di proseguire nello sviluppo e nel lancio di nuovi prodotti, come appunto l’app di ChatGPT per smartphone appena uscita?

Secondo i pareri di vari addetti ai lavori, radunati dal sito Ars Technica, la risposta a queste domande è molto cinica: si tratterebbe di un modo per sviare l’attenzione dai problemi che questi software stanno già causando adesso, come l’amplificazione dei pregiudizi o le questioni legali e di diritto d’autore o di consenso all’uso dei dati personali, oppure le sorveglianze di massa rese possibili dal riconoscimento facciale automatizzato. 

Annunci come questi sono anche operazioni d’immagine, che costano poco e fanno fare bella figura atteggiandosi da eroi e lavandosi la coscienza. Forse sarebbe meglio concentrarsi sui problemi attuali dell’intelligenza artificiale invece di pensare a un ipotetico computer superintelligente che potrebbe dominare il mondo. Ma questo interferirebbe con i piani di vendita di queste aziende, ed è molto meno accattivante.

Nel frattempo, il rischio di estinzione non sembra arrivare tanto dalla superintelligenza artificiale, ma dalla stupidità naturale degli esseri umani incantati dal gadget del momento.

Nessun commento: