2018/06/12

Autopilot di Tesla fallisce miseramente un semplice test della BBC

Ultimo aggiornamento: 2018/06/14 7:20.

Chiunque abbia una Tesla (o un’auto con funzioni di guida assistita di altra marca) o stia pensando di acquistarne una dovrebbe riflettere seriamente su questo video prodotto dalla BBC.


Nella prima parte del test, l’auto (una Tesla Model S con la guida assistita Autopilot attiva) segue correttamente le corsie e rallenta altrettanto correttamente, fino a fermarsi, quando il veicolo che le sta davanti incontra un’auto ferma sulla corsia, rallenta e a sua volta si ferma.

Ma nella seconda parte del test, l‘auto che precede la Tesla mette la freccia e poi cambia corsia per evitare il veicolo fermo: la Tesla invece procede diritta, senza rallentare, fino a centrare in pieno l’auto ferma.


So che Tesla sta correndo per installare software meno fallimentare di questo, e che la sua release più recente (la 2018.21.9, in distribuzione in queste ore a tutta la flotta) riduce drasticamente il tempo per il quale si possono togliere le mani dal volante (da uno o due minuti a una trentina di secondi), ma a mio parere l’Autopilot attuale (quello mostrato nel video) non può neanche essere considerato un assistente di guida. È un pericolo, perché fallisce in situazioni e in modi che l’utente non ha motivo di aspettarsi.

È vero che la situazione del test è indicata specificamente nel manuale delle Tesla e in quello di altre auto con guida assistita, ma quanti conducenti se ne ricorderanno e la terranno costantemente presente durante la guida assistita, il cui scopo è ridurre la fatica (e quindi l’attenzione) di chi guida?



Il manuale della Tesla Model X dice: Avvertimento: Il Cruise Control adattativo al traffico potrebbe non rilevare oggetti e potrebbe non frenare o decelerare in presenza di veicoli fermi, soprattutto se si procede a velocità superiori a 80 km/h e il veicolo antistante si sposta dal percorso di marcia e ci si trova davanti a un veicolo fermo un oggetto immobile. Prestare sempre attenzione alla strada davanti a sé ed essere sempre pronti a prendere immediatamente azioni correttive.

Il problema di qualunque sistema di guida assistita di questo genere (BBC cita sia Autopilot di Tesla, sia Propilot di Nissan; da parte mia segnalo queste avvertenze nei manuali BMW e Volvo) è in quel potrebbe, che crea incertezza e che rischia di aumentare i tempi di reazione invece di ridurli.

Infatti il conducente tenderà a lasciar fare al sistema, che spesso funzionerà correttamente e quindi farà aumentare man mano la fiducia del conducente nei suoi confronti, ma poi fallirà inaspettatamente, come in questo caso, e il conducente spenderà secondi preziosi per valutare se il sistema sta per intervenire o no. Quando si accorgerà che il sistema non solo non sta intervenendo, ma sta creando una condizione di pericolo, potrebbe essere troppo tardi.


2018/06/14 7:20


La Thatcham Research ha pubblicato su Youtube un video che mostra altri dettagli dei test svolti non solo su Tesla ma anche su altre marche che offrono sistemi di guida assistita (notate quanto sbaglia il mantenimento di corsia della BMW a 1:20):


Jalopnik ha pubblicato un elenco (probabilmente parziale) degli incidenti nei quali l’Autopilot di Tesla, usato scorrettamente con eccessiva fiducia, ha ignorato ostacoli metallici (veicoli o barriere) fermi sulla corsia di marcia e li ha centrati:

Nessun commento:

Posta un commento

Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.

Pagine per dispositivi mobili