L’articolo è stato agggiornato estesamente dopo la pubblicazione iniziale del 2016/10/16. Ultimo aggiornamento: 2016/10/18 16:15.
Il dilemma del tram (trolley problem) è un esperimento mentale molto semplice: immaginate un tram che corre sul proprio binario. Sul binario ci sono cinque operai, che il conducente del tram vedrà soltanto quando non ci sarà più tempo per frenare. E quando loro si accorgeranno del tram che incombe sarà troppo tardi per scansarsi.
Per fortuna ci siete voi, accanto alla leva che aziona uno scambio lungo il percorso del tram. Potreste quindi deviare la corsa del veicolo e salvare i cinque operai; ma sul binario alternativo c’è un altro operaio, che non si aspetta che gli piombi addosso un tram e non avrà tempo di accorgersene.
Cosa fate?
Se non fate niente, moriranno cinque persone. Se azionate lo scambio, ne morirà una sola, ma sarà stato il vostro intervento diretto a scegliere di farla morire.
Questo dilemma, concepito negli anni sessanta del secolo scorso, è tornato di moda di recente con l’inizio della sperimentazione delle automobili a guida autonoma, dove il conducente si lascia trasportare dal computer di bordo e non è più responsabile delle azioni dell’auto, come un passeggero su un treno.
Cosa deve fare il computer di bordo se si trova nella situazione di dover decidere, per esempio, se restare in strada e investire un gruppo di bambini che stanno attraversando su una curva cieca oppure uscire volontariamente di strada e uccidere i propri passeggeri? A differenza di un essere umano, un computer è talmente veloce che può calcolare in un batter d’occhio tutti gli scenari possibili e valutarne le rispettive conseguenze. Un computer, insomma, ha tempo di scegliere.
Il guaio di questo dilemma (incubo di tanti automobilisti) è che non esiste una risposta accettabile. Chi vende automobili, per esempio, deve decidere se dire al cliente che la sua auto sceglierà di ucciderlo oppure travolgerà freddamente chiunque incontri sul proprio percorso. Nessuno comprerà un’auto programmata per ammazzarlo, e un’auto ammazzapedoni sarebbe decisamente impopolare, per cui venditori e fabbricanti finora hanno cercato in tutti i modi di glissare sulla questione.
Ma Christoph von Hugo, direttore della Mercedes-Benz per i sistemi di assistenza al conducente e di sicurezza attiva, ha dichiarato in una recente intervista alla rivista Car and Driver che “Se sai che puoi salvare almeno una persona, almeno salva quella. Salva quella nell’auto. Se tutto quello che sai con certezza è che puoi evitare una morte, allora quella è la tua priorità.” In altre parole, secondo von Hugo le future auto autonome della casa automobilistica tedesca saranno programmate per dare sempre la priorità alla sicurezza dei passeggeri.
Ragionamento da brivido, giustificato però da alcune considerazioni:
“Potresti sacrificare l’auto, ma non sai cosa succederà poi alle
persone che hai salvato inizialmente in situazioni spesso molto
complesse”, ha aggiunto von Hugo.
Per esempio, se
l’auto sterza per evitare dei bambini, potrebbe perdere il controllo e
centrare un altro gruppo di pedoni o uno scuolabus che arriva nell’altro
senso di marcia: le conseguenze sono troppo imprevedibili.
Ma
von Hugo ha anche chiarito che in realtà la ricerca sulle auto autonome
ha l'obiettivo di evitare che si trovino in situazioni indecidibili
come quella del dilemma del tram: “il 99% del nostro lavoro tecnico consiste nel prevenire in partenza queste situazioni.”
Le dichiarazioni di von Hugo hanno comunque scatenato un putiferio: l’immagine del ricco proprietario di un’auto
di lusso che si salva sacrificando la vita degli altri è decisamente
poco appetibile per il marketing di Mercedes.
Nei giorni successivi, dopo la pubblicazione iniziale di questo articolo, la casa automobilistica ha dichiarato, tramite un portavoce, che le parole di von Hugo sono state fraintese e non rispecchiano la posizione ufficiale, secondo la quale “[...] né i programmatori né i sistemi automatizzati hanno il diritto di valutare il valore delle vite umane. Il nostro lavoro di sviluppo si concentra sull’evitare completamente le situazioni di dilemma, per esempio implementando nei nostri veicoli una strategia operativa che evita il rischio. Non ci sono casi nei quali abbiamo preso una decisione in favore degli occupanti del veicolo. Continuiamo ad aderire al principio di fornire il massimo livello possibile di sicurezza a tutti gli utenti della strada. Prendere una decisione in favore di una persona e quindi contro un’altra non è legalmente ammissibile in Germania. Vi sono leggi analoghe anche in altri paesi. Chiarire queste questioni legale ed etiche a lungo termine richiederà un ampio dibattito internazionale. Questo è l’unico modo di creare un consenso inclusivo e promuovere l’accettazione dei risultati. Come fabbricanti, implementeremo sia le basi legali sia ciò che è ritenuto socialmente accettabile.”
Ma nel frattempo la questione è stata posta con forza: grazie all’informatica possiamo ridurre drasticamente le stragi della strada, imponendo per esempio limiti di velocità e distanze di sicurezza invalicabili e un controllo centralizzato del traffico. Il vero dilemma è se farlo adesso, con la tecnologia che abbiamo, e cominciare a salvare vite umane, o se aspettare il perfezionamento di un dibattito filosofico che forse non si concluderà mai.
Nessun commento:
Posta un commento