Credit: NBC. |
Ultimo aggiornamento: 2018/04/03 00:10.
Un incidente avvenuto a Mountain View, in California, nel quale ha perso la vita il conducente di una Tesla Model X, ha posto nuovi interrogativi sul sistema di guida assistita di Tesla, il cosiddetto Autopilot.
L’incidente, e soprattutto la conseguente indagine delle autorità statunitensi per la sicurezza dei trasporti (NTSB), è anche una delle ragioni della forte caduta (8%) delle azioni Tesla e del declassamento del credit rating di Tesla da parte di Moody. Le altre sono le lentezze, rispetto alle promesse di Elon Musk, nella produzione della Model 3 (il modello meno caro delle Tesla, che è in vendita ma col contagocce) e le conseguenti incertezze sull’indebitamento dell’azienda, nonché il richiamo di tutte le Model S, circa 123.000, per un possibile problema al servosterzo nei climi molto freddi. Insomma, è un momento difficile per Tesla.
Poche ore fa, dopo alcune incertezze iniziali, è emerso che al momento dell’incidente l‘Autopilot della Model X era attivo. Questo sembra indicare un difetto grave nel sistema di guida assistita che avrebbe ripercussioni enormi su Tesla e sulle circa 280.000 sue auto circolanti, oltre che sull’intero concetto di guida autonoma, già scosso dal recente incidente mortale di un’auto di Uber.
Ma è importante capire la dinamica di questo incidente prima di saltare a conclusioni affrettate.
Secondo il rapporto della California Highway Patrol, l’auto ha colpito frontalmente e di testa lo spartitraffico, si è incendiata ed è stata colpita da altre due auto. L’impatto è stato terribilmente violento perché lo spartitraffico non aveva più l’apposito attenuatore d’urto, che era andato distrutto in un altro incidente, nel quale aveva contribuito a salvare il conducente accartocciandosi come previsto e smorzando quindi l’impatto.
L’attenuatore d’urto nelle sue condizioni normali, visto da Google Street View. |
L’attenuatore collassato com’era il giorno prima dell’incidente della Tesla. |
Tesla ha dichiarato che secondo i dati dei sensori di bordo “negli istanti che hanno preceduto la collisione, avvenuta alle 9:27 del mattino venerdì 23 marzo, l’Autopilot era attivato, con la distanza di inseguimento del cruise control adattivo impostata al minimo” (la guida assistita dell’auto mantiene automaticamente la distanza dal veicolo che la precede, e questa distanza era impostata al valore minimo). Ma ha notato anche che “il conducente aveva ricevuto numerosi avvisi visivi e uno acustico di riprendere il controllo poco prima, durante la guida, e le mani del conducente non sono state rilevate sul volante per sei secondi prima della collisione. Il conducente ha avuto circa cinque secondi e 150 metri di visuale non ostruita dello spartitraffico in cemento con l’attenuatore d’urto collassato, ma le registrazioni del veicolo mostrano che non è stata intrapresa alcuna azione.”
In altre parole, sembra che si tratti ancora una volta di un caso di uso scorretto dell’Autopilot, che non è un sistema di guida automatica ma è solo un assistente di guida, nonostante il nome ingannevole e altisonante. Il conducente deve essere costantemente vigile e pronto a intervenire: tenere le mani sul volante, pronte ad agire, è indispensabile. Ma troppo spesso i conducenti di queste auto attribuiscono a questi sistemi capacità che assolutamente non hanno, si fidano troppo e iniziano a ignorare gli allarmi.
Nel contempo, sembra chiaro che il sistema di guida assistita non è stato in grado di gestire un ostacolo fermo sulla carreggiata e di interpretare correttamente la segnaletica orizzontale, e non è la prima volta che succede.
Secondo Ars Technica, che cita un servizio di ABC7, il conducente era un engineer (termine generico che non ha necessariamente il senso italiano di ingegnere) della Apple, di nome Walter Huang, in precedenza sviluppatore di videogiochi per la Electronic Arts. La famiglia di Huang dice che l’uomo aveva portato la sua Tesla dal concessionario lamentando problemi con l’Autopilot proprio su quel tratto di strada e ha presentato una fattura a riprova, ma Tesla dice di non avere traccia di queste visite.
Va detto anche che il tratto di strada è chiaramente pericoloso, visto che l’assorbitore d’urto era stato distrutto da una collisione precedente di un veicolo convenzionale. La questione di fondo, da valutare con cautela e delicatezza, è come mai il conducente non avesse le mani sul volante per vari secondi in un tratto di strada non lineare e complesso (per un sistema di guida assistita) e avesse l’Autopilot inserito nonostante avesse lamentato problemi con questo sistema proprio in quel pezzo di strada.
È importante sottolineare che l’informatizzazione delle auto, particolarmente spinta nelle Tesla e in altre marche, consente di avere dati tecnici che permettono di ricostruire gli eventi con precisione e (si spera) evitare altri eventi come questo. Senza questi dati, le cause di questo incidente mortale resterebbero probabilmente un mistero. Grazie a questi dati, fra l’altro, Tesla dichiara che sa che “i proprietari di Tesla hanno percorso quello stesso tratto autostradale con l’Autopilot inserito circa 85.000 volte da quando è stato introdotto l’Autopilot nel 2015 e circa 20.000 volte soltanto dall’inizio di quest’anno e non c’è mai stato nessun incidente di cui siamo a conoscenza. Ogni giorno su questo preciso tratto di strada ci sono oltre 200 passaggi in Autopilot compiuti con successo”. Dati che sono al tempo stesso preziosi ma anche rivelatori di quanto le auto iperconnesse siano anche ipersorvegliabili.
2018/04/02 15:00
Un video pubblicato da poco su Youtube mostra un conducente Tesla che passa dal tratto di strada nel quale è avvenuto l’incidente e lo fa con l’Autopilot attivato e ignorandone gli avvisi, ricreando quindi condizioni simili a quelle dell’incidente, e quasi si schianta perché l’Autopilot si confonde sulla segnaletica orizzontale.
Questo tipo di esperimenti è molto pericoloso e non va incoraggiato, ma mostra piuttosto inequivocabilmente che l’Autopilot di Tesla ha problemi a riconoscere le strisce di delimitazione di corsia in queste condizioni.
Va detto, tuttavia, che non è ancora chiaro quale versione di hardware e software fosse usata dalla Tesla di Huang. Non tutte le Tesla, infatti, hanno lo stesso hardware e software di gestione dell’Autopilot.
2018/04/03 00:10
Un altro video girato nello stesso luogo spiega altri dettagli, precisando che è stato ripreso usando una Tesla Model 3 con hardware Autopilot 2.5 e firmware 2018.4.9: l’auto si comporta correttamente, ma nel video si nota che le strisce bianche che dividono le due carreggiate divergono tanto da formare due linee quasi parallele e spaziate quasi quanto una corsia (lo spazio triangolare fra queste due strisce non è contrassegnato come area da non occupare, come avviene invece nelle strade europee). Se l'Autopilot interpreta queste due righe come dei delimitatori di corsia, allora porta l’auto dritta contro lo spartitraffico. Ma in tal caso resta da capire come mai non si sia attivata la frenata automatica anticollisione.
L’autore del video nota che ha percorso quel tratto di strada con un Autopilot per circa due anni e l’auto ha sbagliato a interpretare la segnaletica orizzontale una o due volte, andando quasi a colpire l’attenuatore.
Il canale televisivo ABC 7 è tornato sul luogo dell’incidente con una Tesla Model X. Nel video qui sotto viene citata una dichiarazione secondo la quale Huang aveva segnalato che “sette volte su dieci” la sua auto in quel punto sterzava verso l’attenuatore. Questo rende ancora meno comprensibile la scelta di Huang di usare l’Autopilot e ignorare gli allarmi proprio in quel punto anche il giorno dell’incidente mortale.
Il conducente, nel video di ABC 7, ribadisce molto chiaramente che non bisogna togliere le mani dal volante e bisogna restare sempre pronti a intervenire. Cita anche alcuni errori del sistema di guida assistita, come un’auto fantasma rilevata dai sensori, tanto da far frenare automaticamente la Tesla.
Fonti aggiuntive: Electrek, Teslarati. Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Nessun commento:
Posta un commento