Cerca nel blog

2018/11/16

Quando l’intelligenza artificiale esegue gli ordini alla lettera, succedono disastri o c’è da ridere

L’intelligenza artificiale spesso fa quello che le specificano di fare i suoi creatori invece di fare quello che intendevano. Mi sono imbattuto in questo tweet che racconta un esperimento: collegare una rete neurale a un aspirapolvere robotico Roomba, con l’intento di insegnarli a spostarsi senza scontrarsi contro gli oggetti. La rete viene “premiata” quando lo spostamento è veloce e “punita” quando i sensori registrano un impatto. Soluzione geniale trovata dalla rete neurale: andare in retromarcia, perché non ci sono sensori d’impatto sul retro e quindi può schiantarsi velocemente contro qualunque cosa ricevendo solo premi e nessuna punizione.

Collegato a quel tweet ho poi trovato questo documento in inglese, che compila una serie al tempo stesso esilarante e inquietante di equivoci e di “furbizie” di questi sistemi di intelligenza artificiale. Alcuni esempi:

  • Una rete neurale concepita per distinguere funghi commestibili e velenosi sfrutta il fatto che i dati le vengono presentati in ordine alternato e quindi non impara nessuna delle caratteristiche presenti nelle immagini dei vari funghi.
  • Creature virtuali hanno il compito di evolversi per diventare sempre più veloci. Soluzione: diventare man mano più alte e lasciarsi cadere per terra, perché la caduta genera velocità elevate.
  • Un software ha il compito di impilare mattoncini di Lego e quindi viene “premiato” quando la coordinata dell’altezza della faccia inferiore di un mattoncino aumenta di valore. Soluzione del software: capovolgere tutti i mattoncini, facendo in modo che la faccia inferiore sia più in alto di prima.
  • Un agente per giocare a Tetris ha il compito di non perdere. Soluzione: mettere il gioco in pausa.

Il 21 novembre la RSI dedicherà un programma speciale ai Big Data, alla robotica e all’intelligenza artificiale. Per saperne di più, seguite questo link.

Nessun commento: