Fra i firmatari spiccano i dirigenti di OpenAI e DeepMind, Bill Gates e professori delle più prestigiose università statunitensi e cinesi. Sono sorprendentemente assenti le firme di esponenti di Meta.
La dichiarazione è accompagnata da un comunicato stampa che paragona questa presa di posizione a quella di Oppenheimer nel 1949 a proposito dei possibili effetti dell’esistenza della bomba atomica, e non è la prima del suo genere: qualche mese fa una lettera aperta firmata da Elon Musk e vari esperti del settore ha chiesto una moratoria di sei mesi nello sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4.
Anche al recente convegno di sicurezza informatica Sphere23 di Helsinki, relatori di spicco come Mudge, Mikko Hyppönen e Ian Beacraft hanno parlato estesamente del rischio che un’intelligenza artificiale generale (Artificial General Intelligence, AGI), ossia capace di apprendere, capire ed eseguire qualunque attività intellettuale umana, possa rimpiazzare completamente gli esseri umani, e del rischio che emerga una superintelligenza artificiale i cui gestori sarebbero, in sostanza, padroni del mondo perché questa superintelligenza permetterebbe di anticipare e contrastare qualunque mossa dei rivali intellettualmente inferiori.
Se vi state chiedendo come mai tutto questo catastrofismo arrivi proprio da coloro che stanno sviluppando gli strumenti che potrebbero causare i disastri di cui parlano, non siete i soli. Se c’è davvero bisogno di una pausa di riflessione, perché non sono loro i primi a farla, invece di proseguire nello sviluppo e nel lancio di nuovi prodotti, come appunto l’app di ChatGPT per smartphone appena uscita?
Secondo i pareri di vari addetti ai lavori, radunati dal sito Ars Technica, la risposta a queste domande è molto cinica: si tratterebbe di un modo per sviare l’attenzione dai problemi che questi software stanno già causando adesso, come l’amplificazione dei pregiudizi o le questioni legali e di diritto d’autore o di consenso all’uso dei dati personali, oppure le sorveglianze di massa rese possibili dal riconoscimento facciale automatizzato.
Annunci come questi sono anche operazioni d’immagine, che costano poco e fanno fare bella figura atteggiandosi da eroi e lavandosi la coscienza. Forse sarebbe meglio concentrarsi sui problemi attuali dell’intelligenza artificiale invece di pensare a un ipotetico computer superintelligente che potrebbe dominare il mondo. Ma questo interferirebbe con i piani di vendita di queste aziende, ed è molto meno accattivante.
Nel frattempo, il rischio di estinzione non sembra arrivare tanto dalla superintelligenza artificiale, ma dalla stupidità naturale degli esseri umani incantati dal gadget del momento.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.