La descrizione aggiunge che il conducente procedeva a 100 km/h e non avrebbe notato gli uccelli a causa delle ombre, ma l’assistente di guida avrebbe riconosciuto i volatili, avrebbe suonato l’allarme e avrebbe sterzato e frenato.
Essendo un video virale monetizzato, il rischio che si tratti di una messinscena non è trascurabile, e sto cercando conferme o smentite. Ma in ogni caso il video ripropone in maniera molto coinvolgente il problema fondamentale di qualunque veicolo a guida autonoma o assistita, e anche di qualunque automobilista: cosa fare in casi come questi?
La soluzione cinica e fredda, viste le dimensioni degli animali, è travolgerli: i danni all’auto saranno trascurabili e si eviteranno i rischi di una sterzata improvvisa, con possibile perdita di controllo. Ma quanti si sentirebbero di scegliere questa soluzione? Quanti riuscirebbero, in emergenza, a resistere all’impulso di sterzare e frenare?
In questo caso il sistema di guida assistita avrebbe, a quanto pare, preso la decisione perfetta, riconoscendo gli oggetti e gestendo impeccabilmente la sterzata e la successiva correzione di traiettoria. Ma cosa sarebbe successo se ci fosse stata nella corsia opposta un’altra auto? O un ciclista? O un cane? Il sistema avrebbe sterzato lo stesso, causando uno scontro frontale o travolgendo una persona o un altro animale? O avrebbe semplicemente frenato restando in corsia, nel tentativo di ridurre il danno agli animali e all’auto? E se al posto delle anatre ci fosse stato un bambino?
Un sistema di guida assistita ha tempi di reazione enormemente più rapidi di un essere umano: situazioni come queste, dal suo punto di vista, avvengono al rallentatore e senza emozioni, e quindi c‘è tutto il tempo di “ragionare” sulle varie opzioni e di calcolarne i risultati con freddissima precisione. Ma gli attuali assistenti di guida hanno questo livello di sofisticazione, o si limitano a semplici istruzioni del tipo “se vedi un oggetto grosso davanti a te e la corsia in fianco è libera, scansalo”? Sanno riconoscere non solo gli oggetti, ma il loro valore etico?
Per contro, qualora fosse possibile programmare delle priorità all’interno di questi sistemi, quali dovrebbero essere queste priorità? Se l’impatto è inevitabile, l’auto chi deve scegliere fra un bambino o un anziano? Fra un uomo e una donna? Fra un pedone e un gruppo di pedoni? Se uscire di strada permette di salvare le persone sulla strada ma mette a rischio il conducente e i passeggeri dell’auto, che però sono protetti almeno in parte da carrozzeria, airbag e cinture, è questa la scelta da fare? E se invece si tratta di scegliere fra danni materiali all’auto e investire un anatroccolo?
Più in generale, è giusto pretendere che un sistema informatico debba prendere queste decisioni etiche? O dovremmo invece limitare la guida autonoma a percorsi appositi e messi in sicurezza, come avviene per i treni o le metropolitane e gli ascensori, e abbandonare il sogno di essere portati in giro per le città caotiche di oggi da fedeli servi elettronici infallibili?
Questi dilemmi non sono certo nuovi: fanno parte del cosiddetto trolley problem, o “dilemma del tram”, che ho già toccato altrove, sono noti dagli anni Sessanta del secolo scorso e sono tornati alla ribalta con l’introduzione dei sistemi di guida assistita e con l’affacciarsi all’orizzonte di sistemi di guida pienamente autonoma.
Se volete saperne di più, consiglio questo articolo di Towards Data Science, che esplora i vari approcci adottati dalle aziende come Waymo e Tesla che stanno studiando il problema.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.