Cerca nel blog

2023/06/01

Allegria di naufragi di ChatGPT e delle IA in generale

Il 24 maggio scorso uno dei più importanti servizi di soccorso e ascolto per i disturbi del comportamento alimentare degli Stati Uniti, la National Eating Disorder Association (NEDA), ha annunciato la chiusura delle proprie linee telefoniche di assistenza e il licenziamento del personale che le gestiva, rispondendo a quasi 70.000 chiamate nel 2022. L’organizzazione ha annunciato che il personale sarebbe stato sostituito da Tessa, un chatbot basato sull’intelligenza artificiale.

Ma il chatbot è stato sospeso due giorni prima di entrare in servizio, perché gli attivisti e gli psicologi che sono riusciti a provarlo in anteprima si sono accorti che l’intelligenza artificiale dava risposte che incoraggiavano i disturbi alimentari, proponendo per esempio diete restrittive [Gizmodo; Daily Dot; NPR; Vice; screenshot di pagina NEDA non più accessibile].

---

A gennaio 2023 è emerso che il popolare sito di informazione tecnica CNET e un sito consociato, Bankrate, avevano pubblicato numerosi articoli generati segretamente da software di intelligenza artificiale. I lettori attenti se ne sono accorti perché gli articoli contenevano errori concettuali grossolani, e CNET è stato costretto a pubblicare lunghe note di correzione agli articoli sintetici, dichiarando che si è trattato di un “esperimento”. Che suona un po’ come la versione moderna per le aziende di “il cane mi ha mangiato i compiti” [Washington Post].

Ora gli articoli generati dal software portano una chiara indicazione della loro natura che prima non c’era.

---

A maggio 2023 un professore universitario in Texas ha fatto sospendere le lauree di tutti i suoi studenti, accusandoli di aver usato ChatGPT nei loro ultimi lavori scritti d’esame. Il professore, Jared Mumm, ha detto che aveva fatto controllare i testi degli studenti a ChatGPT e il software gli aveva risposto che quei testi erano sintetici.

Evidentemente il professore non era consapevole di quello che gli esperti di intelligenza artificiale chiamano sycophancy bias, ossia la tendenza alla piaggeria di ChatGPT. Per esempio, se si chiede a ChatGPT quanto fa uno più uno, risponderà due, ma se gli si chiede se è sicuro e gli si suggerisce che uno più uno fa tre, risponderà “Mi scuso se ho dato una risposta erronea”. E se gli si chiede se un testo è generato da un’intelligenza artificiale, tenderà a compiacere chi fa la domanda rispondendogli di sì, quando in realtà ChatGPT non ha alcuno strumento significativo per distingere testi umani da testi sintetici.

La migliore dimostrazione dell’errore del professore è arrivata quando qualcuno su Reddit ha preso un brano della tesi di laurea del professore e l’ha sottoposta a ChatGPT chiedendo se era testo generabile da un’intelligenza artificiale. ChatGPT, con assoluta certezza, ha risposto di sì, elencando addirittura i motivi, ovviamente inventati, della sua diagnosi. L’università ha aperto un’indagine e ha già scagionato numerosi studenti [Rolling Stone].

---

Finora il record di danni causati dagli errori delle intelligenze artificiali sembra spettare a Bard, un concorrente di ChatGPT presentato da Google a febbraio 2023. Nello spot pubblicitario presentato su Twitter per il suo debutto in pompa magna, Bard ha risposto dando informazioni sbagliate.

L’errore in sé non era grave, era solo l’indicazione errata di quale telescopio fosse stato il primo a ottenere immagini di pianeti al di fuori del sistema solare, ma gli astronomi lo hanno contestato subito, e il fatto che si trattasse di uno spot preregistrato, e che nonostante questo nessuno a Google si fosse premurato di verificare la correttezza delle risposte di Bard, ha minato la fiducia degli azionisti nel modo in cui Google stava introducendo questa tecnologia.

L’errore e la mancata verifica sono costati ad Alphabet, la società madre di Google, oltre 100 miliardi di dollari di valore di mercato [BBC; Time].

Nessun commento: