skip to main | skip to sidebar
67 commenti

Incidente mortale in California con guida assistita, Tesla incolpa esplicitamente il conducente



Ultimo aggiornamento: 2018/04/15 01:00.

Pochi giorni fa ho provato personalmente l’Autopilot più recente di Tesla e ora mi è molto più chiara la dinamica dell’incidente che è costato la vita a un utente di una Model X, Walter Huang, su un’autostrada californiana meno di un mese fa. Per questo credo che sia importante scrivere un chiarimento e lanciare pubblicamente un monito a tutti coloro che usano le Tesla e le altre auto a guida assistita: non fidatevi eccessivamente di questi sistemi e rispettatene scrupolosamente i limiti restando sempre pronti a intervenire, perché commette errori estremamente pericolosi.

Riassumo la dinamica dell’incidente, descritta in dettaglio qui: a una biforcazione di un’autostrada presso Mountain View, la Tesla di Huang ha colpito frontalmente la testata dello spartitraffico in cemento che divide le due carreggiate. L’attenuatore d’urto dello spartitraffico era già stato distrutto da un incidente precedente di un’auto convenzionale e quindi l’impatto è stato violentissimo.

I dati di bordo indicano che al momento dell’impatto il sistema di guida assistita (non autonoma) dell’auto, denominato Autopilot, era stato attivato da Huang. Il sistema aveva avvisato Huang ripetutamente di riprendere il controllo e le mani del conducente non erano sul volante nei sei secondi precedenti la collisione. Huang non ha intrapreso alcuna azione correttiva.

La vedova di Huang si appresta ora a fare causa a Tesla per la morte del marito e Tesla ha risposto con toni decisamente insoliti per una casa automobilistica, dando inequivocabilmente la responsabilità dell’incidente a Huang:

[...] Secondo la famiglia, il signor Huang era ben consapevole che l’Autopilot non era perfetto e aveva detto specificamente alla famiglia che non era affidabile proprio in quel luogo, eppure ha attivato l’Autopilot in quel luogo. L’incidente è avvenuto in una giornata limpida, con alcune centinaia di metri di visibilità anteriore, e questo significa che l’unico modo in cui questo incidente può essere accaduto è che il signor Huang non stava prestando attenzione alla strada nonostante il fatto che l’auto abbia fornito numerosi avvisi di farlo. [...]

Il comunicato integrale di Tesla è qui su Bloomberg.

Ma come mai l’Autopilot della Tesla di Huang ha sbagliato così disastrosamente? L’ho visto all’opera personalmente durante un recente viaggio su una Model S P100D dotata della versione più recente del sistema di guida assistita. Il mantenimento di corsia si basa fondamentalmente sulle telecamere di bordo, che rilevano le strisce che delimitano le corsie. Ma basta poco per confondere questo rilevamento.

Nel mio caso, su un tratto libero di autostrada svizzera nel quale erano state aggiunte delle strisce provvisorie per dei lavori, l’Autopilot ha riconosciuto ripetutamente soltanto le strisce bianche normali e quindi ha iniziato a sbagliare l’inserimento in corsia, spostandosi verso l’area dei lavori. Ma il conducente, accanto a me, era pronto a intervenire, come è giusto che sia e come Tesla ribadisce costantemente ad ogni attivazione dell’Autopilot, e quindi lo scostamento è stato minimo. Senza l’intervento del conducente, però, le conseguenze sarebbero state preoccupanti. Proprio per questo Tesla visualizza promemoria e allarmi visivi e acustici molto chiari, arrivando a disabilitare l’Autopilot fino alla sosta successiva se il conducente ignora gli allarmi e non rimette le mani sul volante.




Nel caso di Huang, la striscia di sinistra della sua corsia si divideva a Y presso la biforcazione, creando un tratto nel quale la striscia sdoppiata formava una sorta di corsia fantasma che termina proprio contro lo spartitraffico.

La zona dell’incidente in Google Maps, secondo i dati di Mercury News. L’auto proveniva da sinistra; lo spartitraffico è sulla destra.

La zona dell’incidente in Google Street View.

L’ipotesi più plausibile è che l’auto abbia interpretato questa corsia fantasma come una corsia reale, usando come riferimento la striscia di sinistra e quindi interpretando la corsia fantasma come proseguimento di quella reale che stava occupando, e vi si sia posizionata. Il radar di bordo non avrebbe individuato lo spartitraffico, forse a causa del suo accartocciamento che lo rendeva poco riflettente al segnale emesso dall’auto.

Un’altra Tesla compie lo stesso errore nello stesso punto. Immagine tratta da questo video.

L’incapacità dell’attuale Autopilot di gestire questa configurazione stradale è evidenziata in questo video, che si riferisce a un’altra biforcazione:



I dati raccolti dagli enti di sicurezza (NHTSA, pagina 11) indicano che in generale l’Autopilot riduce gli incidenti rispetto alle stesse auto guidate manualmente, ma questo non vuol dire che lo si debba usare intenzionalmente al di fuori dei suoi limiti di competenza, che sono molto evidenti: è un ottimo ausilio nelle code o su autostrade libere e con segnaletica orizzontale ben demarcata, ma si confonde molto facilmente in molte altre situazioni, come fanno del resto i sistemi delle altre marche.
Dal manuale della BMW Serie 7 del 2016. Fonte: NHTSA.

Dal manuale della Volvo XC90 del 2016. Fonte: NHTSA.
Invia un commento
I commenti non appaiono subito, devono essere tutti approvati manualmente da un moderatore a sua discrezione: è scomodo, ma è necessario per mantenere la qualità dei commenti e tenere a bada scocciatori, spammer, troll e stupidi.
Inviando un commento date il vostro consenso alla sua pubblicazione, qui e/o altrove.
Maggiori informazioni riguardanti regole e utilizzo dei commenti sono reperibili nella sezione apposita.
NOTA BENE. L'area sottostante per l'invio dei commenti non è contenuta in questa pagina ma è un iframe, cioè una finestra su una pagina di Blogger esterna a questo blog. Ciò significa che dovete assicurarvi che non venga bloccata da estensioni del vostro browser (tipo quelle che eliminano le pubblicità) e/o da altri programmi di protezione antimalware (tipo Kaspersky). Inoltre è necessario che sia permesso accettare i cookie da terze parti (informativa sulla privacy a riguardo).
Commenti
Commenti (67)
Capisco che in questi casi l'aspetto irrazionale e il 'drama' prendano un po' il sopravvento e la questione appaia complessa, a primo acchito.
Il fatto è che il sistema ha i suoi limiti (e li avrà sempre, qualsiasi sistema a guida autonoma) e richiede modalità d'utilizzo specifiche.
Se il conducente non segue queste modalità d'utilizzo non c'è scusa che tenga, la responsabilità è sua.
Ciò non vuol dire che il sistema in se sia inutile o poco sicuro (le statistiche dicono il contrario) ma che, come OGNI sistema, deve essere usato in maniera appropriata e conoscendone i limiti.

Faccio spesso questo esempio estremo: anche una macchina normale, se il guidatore si aspetta prestazioni impossibili, ti uccide se togli le mani dal volante e gli occhi dalla strada. Tutti lo sanno e nessuno si lamenta, e se uno si schianta perchè per fare il coglione toglie le mani dal volante nessuno da la colpa alla macchina.
Per autopilot è lo stesso: il sistema richiede la tua attenzione costante e le mani sul volante. Te lo ricorda continuamente e ti dice che ci sono situazioni in cui potresti schiantarti se non lo fai.
Se tu scegli di non usarlo propriamente, la colpa è tua.
Io però mi pongo delle domande...

1- Huang conosceva molto bene quel tratto di strada, perché si è distratto proprio lì? In una biforcazione aumenterei l'attenzione, come facciamo normalmente quando siano vicini ad un incrocio.
2- Se ci fosse stato lo spartitraffico deformabile la Tesla si sarebbe lo stesso confusa? oppure no, perché le linee di corsia non sarebbero state sufficientemente larghe per confondere la Tesla?
3- Se lo spartitraffico fosse campito con linee trasversali e larghe come in Italia la Tesla riconoscerebbe correttamente la situazione?
non fidatevi eccessivamente di questi sistemi e rispettatene scrupolosamente i limiti restando sempre pronti a intervenire, perché commette errori estremamente pericolosi.

..zarola, e se lo dici tu che sei dichiaratamente un entusiasta potenziale utilizzatore del'Autopilot..

Mi chiedo a questo punto come possa essere permesso di rendere disponibile al pubblico un simile pericolosissimo aggeggio.

Come già scrissi a commento della notizia originale, penso che "restare sempre pronti a intervenire" sia oggettivamente impossibile, se ti stai rilassando proprio perchè inconsciamente pensi che "qualcun altro" stia facendo questo per te.
Sulle auto esiste una norma di buonsenso che dice: le mani sul volante, piedi sui pedali, occhi aperti e cervello acceso. Questa norma vale per QUALSIASI auto, indipendentemente da quanta elettronica a corredo esse abbiano.

Una persona disattende volontariamente questa norma? Se succede qualcosa, io invoco il gatto Sitwoy.

Ditemi quel che volete, ma io trovo allucinante che qualcuno possa adottare di proposito una condotta così irrispettosa della vita propria e -sopratutto- altrui. Quindi, empatia zero.
Spiace (come dovrebbe sempre essere) per la singola persona, ma in questo periodo di transizione ci stanno, questi incidenti, anche solo dal punto di vista statistico.
premesso che secondo me la responsabilità ultima è sempre del guidatore (visto che è lui al volante ed è lui ad attivare o meno la guida assistita), ci sono un paio di considerazioni da fare

è vero che Tesla ripete continuamente che il pilota automatico non è un pilota automatico ma un assistente alla guida e che il guidatore deve sempre e comunque prestare attenzione, ma magari smetterla di chiamarlo "pilota automatico" (autopilot) e chiamarlo "assistente alla guida" o qualsiasi altra denominazione sarebbe un tantino più corretto; capisco che commercialmente "autopilot" faccia più presa di "sistema computerizzato di assistenza alla guida del veicolo", ma se Tesla per prima me lo commercializza chiamandolo pilota automatico on c'è da stupirsi se qualcuno poi (consciamente o meno) lo considera come tale.

perchè l'autopilot si limita a segnalare al guidatore di prestare attenzione? L'unica volta che sono salito (da passeggero) su una tesla, il pilota automatico in un'occasione ha segnalato di mettere le mani sul volante, ma la segnalazione in sè non era particolarmente "autoritaria" (si limitava a qualche bip e a un segnale visivo sul display); non so come sia ora, ma non potrebbe a) emettere segnali sonori inequivocabili (a volume medio/alto) e soprattutto b) cominciare ad eseguire azioni per ridurre le possibili conseguenze, tipo ad esempio frenare?
Se l'auto invia dei segnali al guidatore (come Tesla sostiene abbia fatto nel caso citato, e non ho motivi per dubitarne) significa che ha rilevato una (potenziale) situazione di criticità, se avesse cominciato anche a rallentare (non inchiodare di botto, perchè se hai qualcuno dietro poi è peggio - a meno che non ci siano dei sensori di distanza posteriori, a quel punto vedi se hai qualcuno dietro e freni più o meno) magari non avrebbe evitato l'incidente ma sicuramente ne avrebbe ridotto le conseguenze.
Nel mio caso, su un tratto libero di autostrada svizzera nel quale erano state aggiunte delle strisce provvisorie per dei lavori, l’Autopilot ha riconosciuto ripetutamente soltanto le strisce bianche normali e quindi ha iniziato a sbagliare l’inserimento in corsia, spostandosi verso l’area dei lavori.

Si può, quindi, dire che l'Autopilot sia rilassante in coda (al più si ammacca il paraurti in caso d'errore) e ansiogeno in tutti gli altri casi, almeno per me: non riuscirei a rilassarmi all'idea che l'Autopilot possa sbagliare a 130km/h.
Io mi sono fatto un'idea, a distanza di settimane e migliaia di chilometri.
Il povero signor Huang era un ingegnere, lavorava alla Apple, possedeva una Tesla. Possiamo ipotizzare che fosse un "geek"? Che gli piacesse la tecnologia, e capire come funzionano le cose?
Ebbene, il signor Huang si accorge che l'Autopilot in quel tratto non funziona a dovere. Ripete l'esperienza piu' volte nei giorni precedenti l'incidente, a quanto riferito. Pero', in quei casi, evidentemente riprende il controllo per tempo. Fa degli esperimenti.
Non e' forse possibile (vorrei dire "probabile") che in quel giorno fatale abbia detto a se stesso "stavolta non tocco niente e vediamo cosa fa la macchina"? Non per sfida, ma per curiosità intellettuale e professionale, per così dire.
Non voglio fare lo psicologo della domenica, ma non mi sembra così improbabile. Sicuramente, è piu' verosimile che non l'ipotizzare che il conducente non si sia accorto degli allarmi e del pericolo imminente. O vogliamo pensare che dormisse alla guida?
Piuttosto che avere un autopilot di cui non posso fidarmi preferirei avere un limitato numero di strade certificate per l'uso dell'autopilot.

Al termine del tratto "certificato" (od in caso di lavori incorso) una segnaletica a prova di autopilot deve avvisare il dispositivo che "ora si prosegue con le mani sul volante"

Quello che non riesco assolutamente a capire e' come mai il guidatore abbia piu' volte ignorato i segnali del software.
Cattiva progettazione dell'avviso (p.es si puo' confondere con altri alert)?
Distrazione?
L'ha deliberatamente ignorato?
La parte complottista di me pensa: "e se Huang l'avesse fatto apposta, per dimostrare la pericolosità dell'Autopilot, senza però sapere che l'attenuatore d'urto fosse già distrutto e quindi andandosi a schiantare malamente anziché facendo un incidente clamoroso ma non mortale come si aspettava?".

Non trovo altre spiegazioni al "so benissimo che una cosa è pericolosa in determinate condizioni e quindi riproduco quelle stesse condizioni". E il fatto che fosse un ingegnere mi aumenta il sospetto.
Ma se il sistema identifica una situazione potenzialmente pericolosa, chiede ripetutamente al conducende di prendere il controllo, e si accorge che il conducente non prende il controllo, non può prendere delle precauzioni? Tipo rallentare, o fermarsi...?
Sempre più scettico riguardo questi sistemi... perlomeno allo stato attuale e sulle strade attuali
In effetti io e molti commentatori ci chiedevamo cosa succedeva quando le indicazioni non erano ben chiare, cosa che in Italia accade frequentemente. Immaginavo che il sistema fose ancora immaturo e per certi versi il nostro sistema visivo (occhio più cervello) si comporta meglio. Ma io continuo a pensare che sia questione di tempo.
Scusate, ma a me continua a sembrare una vicenda inquietante (e premetto che non conosco il manuale di Tesla). Come può un sistema che consente una perfetta guida 'a elastico' lasciare che l'auto si schianti contro un ostacolo immobile, posizionato centralmente, 'con alcune centinaia di metri di visibilità anteriore', a prescindere dalla qualità della segnaletica orizzontale e dalla tempestività dell'intervento umano? Non potrebbe succedere lo stesso con un cantiere provvisorio, un mezzo in panne o un qualunque ostacolo non previsto?
Grazie
magari smetterla di chiamarlo "pilota automatico" (autopilot) e chiamarlo "assistente alla guida" o qualsiasi altra denominazione sarebbe un tantino più corretto; capisco che commercialmente "autopilot" faccia più presa di "sistema computerizzato di assistenza alla guida del veicolo", ma se Tesla per prima me lo commercializza chiamandolo pilota automatico on c'è da stupirsi se qualcuno poi (consciamente o meno) lo considera come tale.

Già se ne parlava nell'altro thread, e concordo.
Qualsiasi cosa mesa in commercio al grande pubblico deve essere a prova di stupido, non a prova di chi ha letto e compreso il manuale.


>segnaletica orizzontale ben demarcata, ma si confonde molto facilmente in molte altre situazioni

Quinid in Italia non serve :-D
@mrPhelz
cominciare ad eseguire azioni per ridurre le possibili conseguenze, tipo ad esempio frenare?
Una delle prime cose che ti insegnano in pista è: se vai molto più lento degli altri, sei come un muro di mattoni ambulante. Su strada non è diverso, un veicolo che va ai trenta all'ora in una strada dove tutti viaggiano ai 130 è un pericolo per chiunque gli sia vicino. Bisognerebbe non frenare, ma accostare in un punto sicuro, magari uscendo proprio dall'autostrada... ma penso proprio che sia chiedere troppo ad un sistema di guida assistita, per quanto raffinato.


@Templaro Secolari
penso che "restare sempre pronti a intervenire" sia oggettivamente impossibile, se ti stai rilassando proprio perchè inconsciamente pensi che "qualcun altro" stia facendo questo per te.
Ma infatti il punto è che la gente NON dovrebbe pensare che c'è qualcun altro che fa le cose per te. Il ragionamento deve essere: se mi viene un malore, se inavvertitamente mi distraggo o se un pirla manifesta tutta la sua pirlaggine, con quest'auto ho delle chances in più di salvarmi la pelle. Per il resto, si guida come su qualsiasi auto.


@paolo137
Non e' forse possibile (vorrei dire "probabile") che in quel giorno fatale abbia detto a se stesso "stavolta non tocco niente e vediamo cosa fa la macchina"?
Questo ha senso a trecento metri dall'ostacolo. Forse anche a duecento. Ma quando sei a cento metri dall'impatto, possibile che non ti venga almeno l'impulso di mettere le mani sul volante? Mi sembra molto improbabile, va contro l'istinto di sopravvivenza.


@Guga
e se Huang l'avesse fatto apposta, per dimostrare la pericolosità dell'Autopilot
Sarebbe bastato schiantarsi ai quaranta all'ora. Anzi, sarebbe stato ancora più eclatante, perché non c'è più in gioco il fattore "non è che andava troppo veloce per consentire una reazione tempestiva degli automatismi?".
https://youtu.be/-0bLSh_8Lmw
La Tesla non ha anche delle telecamere interne o dei sensori nei sedili tanto per individuare dove era seduta la vittima prima dell'impatto o in che stato era? Magari la vittima dormiva sul sedile dietro o 20 secondi prima aveva avuto un infarto, era al volante ma privo di sensi. Queste cose sono evidenti da un'immagine o dall'applewatch che ti misura la frequenza cardiaca e la invia al softare Tesla per una sosta di emergenza.
Ma allora perche' chiamarlo autopilota ?
e' un nome che trae in inganno.
lo chiamassero guida-servoassistita....
E comunque dovrebbero abilitare all' utilizzo di queste tecnologie passando un esame teorico e pratico.
Come ho letto nel titolo "Incidente mortale in California con guida assistita" ho pensato che oggi ci fosse stato un nuovo incidente in Tesla.
Poi dall'articolo si capisce che il riferimento è all'episodio di diversi giorni fa. Però per far capire che si continua a parlare di quello, forse intitolerei "L'incidente mortale in California con guida assistita..."
@Massimiliano:
E comunque dovrebbero abilitare all' utilizzo di queste tecnologie passando un esame teorico e pratico.
Chi è alla guida di un'auto ha già passato un esame teorico e pratico. Dovrebbe bastare quello.

In ogni caso, non ci vuole chissà quanto studio per capire che, a prescindere da quanto figa e avanzata sia la tua auto, se tieni le mani sul volante e butti un occhio sulla strada è meglio...
Lo ripeterò fino alla nausea: se chiami il tuo sistema Autopilot, sei molto molto gentile con alcuni giornalisti per parlarne in modo eccezionale, fai finta di niente quando girano in internet i video di gente che lodano al di la di ogni logica il tuo sistema di semplice assitenza alla guida (peraltro non tuo, lo compravi da una ditta israeliana che non te l'ha voluto più dare per la pubblicità negativa che gli hai fatto, e poi si scopre che tutto questo ben di Dio altro non fa che quello che anche gli altri fanno, senza pomposamente chiamarlo Autopilota, beh, poi che ti aspetti?
Premetto che secondo me la responsabilità di quanto accaduto e del guidaore. Ma secondo me qui la questione non è tanto la capacità dell'Autopilot nel mantenere la corsia, ma quanto l'evidenza che il radar di bordo va rivisto. È la seconda volta che capita un incidente mortale dovuto a un impatto frontale.
Una seconda osservazione, visto che ormai sono anni che girano in rete video di gente che si filma in una Tesla in marcia mentre fa di tutto tranne guidare, forse è il caso di rinominare l'AutoPilot in AssistPilot. Per far entrare nella zucca di quelli come Huang che non è in sistema Autonomo... ma forse il Marketing non è d'accordo.
La notizia in un certo senso mi rincuora. Ovviamente non mi riferisco alla vittima, ma all'evidente divario che ancora esiste tra una IA e noi. Se accartocci un guard rail e gli metti su anche le caramelle colorate, nessun uomo penserà mai di poterci andare di sopra a 100km/h. Se disegni a terra strisce confuse, l'uomo semplicemente alzerà lo sguardo e proverà a capire la direzione in maniera diversa. In ultimo, un uomo che "non capisce" rallenta, accosta e si ferma, perchè sa che rischia (dolore, la vita, una multa ecc) mentre la IA cercherà di trovare la "soluzione migliore" che non sempre esiste.
Lo hanno gia' scritto tanti ma mi accodo alla lista: trovo irresponsabile e irrispettoso da parte di Tesla continuare a chiamare il proprio sistema "autopilot", per puri motivi di marketing e in barba a tutti gli incidenti e a tutte le critiche gia' ricevute. Non puoi riempire un sacchetto di trucioli di segatura e poi chiamarlo "potato chips" e pretendere che i consumatori non si arrabbino perche' "potato chips" e' solo un nome come un altro e dovrebbero sapere che invece si tratta di trucioli di segatura. Ecco, e' piu' o meno quello che sta facendo Tesla con il suo autopilot... con la differenza che mette a rischio la vita delle persone. Che senso ha continuare con questo equivoco?
Una curiosità. Se si tengono le mani sul volante con autopilot attivato, l'auto mantiene la corsia girando il volante, quindi contrapponendosi al movimento delle guidatore? Immagino che il guidatore debba "accompagnare" questo movimento. Per ritornare nel controllo del volante c'è una soglia di forza da applicare? come funziona?
@Tommy
Su strada non è diverso, un veicolo che va ai trenta all'ora in una strada dove tutti viaggiano ai 130 è un pericolo per chiunque gli sia vicino. Probabilmente chi ha ideato questo precetto doveva percorrere spesso la fipili o il ponte all'indiano :P
1) gli avvisi sono solo di mettere le mani sul volante ogni tanto
2) l'auto non si è attivata in una modalità emergenza perchè altrimenti avrebbe dovuto frenare se non aveva dati sufficienti per capire la situazione
3) il LIDAR (una specie di Sonar Laser) ormai credo sia indispensabile dato anche l'altro investimento della signora di notte, e le tesla NON lo hanno?
Quell'auto in Italia é pericolosissima, basta lasciarla al suo ideatore e probabilmente ci si salva le penne.
Se già chi guida tende a tenere il volante con una mano, il palmo, due dita, immagino che voglia abbia di tenere uno sterzo che gira da solo, suvvia....fa altro é ovvio....
Ciskje,

1) gli avvisi sono solo di mettere le mani sul volante ogni tanto

No. Avviso visivo, poi acustico, poi rallentamento e disattivazione dell'AP. È descritto nel manuale, puoi scaricarlo e leggerlo.


2) l'auto non si è attivata in una modalità emergenza perchè altrimenti avrebbe dovuto frenare se non aveva dati sufficienti per capire la situazione

Non deve attivarsi una modalità emergenza, perché è guida assistita. Si presume che il conducente sia vigile e compia le azioni necessarie a risolvere le situazioni che l'Autopilot non sa gestire.

Se non ha dati sufficienti, non li ha neanche per capire che non ha dati sufficienti.


3) il LIDAR (una specie di Sonar Laser) ormai credo sia indispensabile dato anche l'altro investimento della signora di notte, e le tesla NON lo hanno?

No, non lo hanno. Tesla ritiene (a torto o a ragione) di poter ottenere in futuro un sistema di guida assistita affidabile usando il riconoscimento visivo degli oggetti. Per ora questo non avviene: per questo motivo l'attuale Autopilot è un Livello 2 e la supervisione del conducente resta indispensabile.
In effetti anche l'ultimo video mi confonde gli occhi, seduto alla scrivania e sapendo cosa mi aspetta.
Immagino un sistema autonomo in real time.

"il sistema di guida assistita (non autonoma) dell’auto, denominato Autopilot [...] si confonde molto facilmente in molte altre situazioni, come fanno del resto i sistemi delle altre marche."
Il motivo per cui seguo il blog da...boh...dieci anni (prima che spuntasse fuori Accademia, per capirsi):
precisione e onestà.

Grazie Paolo ;-)
Riguardo al LIDAR, Tesla mi risulta essere l'unica casa automobilistica che non lo ritiene necessario in uno scenario di guida totalmente autonoma. D'altro canto, la tecnologia LIDAR non ha al momento ancora le prestazioni e i requisiti minimi per integrazione sicura e robusta in una produzione di massa.

Da ciò si capisce sia perché Musk non dica di credere nel LIDAR sia perché le altre case non hanno fatto annunci roboanti come Tesla sulla guida autonoma.
in effetti un LiDAR, misurando la distanza di un oggetto e creando una vera mappa 3D dell'ambiente circostante, aggiornata diverse volte al secondo, può identificare facilmente un oggetto in rapido avvicinamento lungo la traiettoria del veicolo. Usando il campo visivo, invece, soprattutto con una sola telecamera come fa Tesla, si rischiano grossi errori come questo.

Molti felini lo sanno bene e quando avvicinano alla preda stanno bene attenti non solo a muoversi lentissimamente in direzione radiale, ma anche a non oscillare la testa o il corpo. In questo modo solo quando sono abbastanza vicini alla preda questa si rende conto del pericolo imminente, ma spesso è troppo tardi.

Tempo fa lessi - ma non so se si applichi a Tesla dopo la creazione del proprio "autopilot" - che la distanza dei veicoli precedenti nei sistemi di autopilota (privi di LiDAR) viene dedotta in realtà dalla misura della posizione del punto di contatto degli pneumatici al terreno, che essendo disallineata rispetto alla direzione del moto del veicolo, ha una componente tangenziale non indifferente della velocità.

Se funziona così, questo spiegherebbe, almeno in parte, sia questo incidente che quello in cui una Model S si schiantò contro un trailer che attraversava la carreggiata.

Un LiDAR avrebbe invece agevolmente identificato in entrambi i casi l'oggetto in avvicinamento, in quanto misura istante per istante la distanza da tutti gli oggetti circostanti, e il backscatter è molto intenso soprattutto quando una superficie è perpendicolare al veicolo. Ma come ha scritto No Concept i LiDAR di questo tipo costano caro, e siccome contengono parti in rapido movimento non è facile produrne di economici che durino per tutta la vita di un veicolo.

Qualcosa che crea un pericolo mortale non andrebbe proprio venduta... Sarebbe legale vendere una cassa di tritolo e poi incolpare le persone perché sulla cassa compariva l'avviso "Attenzione può esplodere"?
Mia ignoranza del sistema ma non capisco alcune cose.

Scrivi
"dati di bordo indicano che al momento dell’impatto il sistema di guida assistita (non autonoma) dell’auto, denominato Autopilot, era stato attivato da Huang. Il sistema aveva avvisato Huang ripetutamente di riprendere il controllo e le mani del conducente non erano sul volante nei sei secondi precedenti la collisione."

1: Ma se l'autopilot è disattivato, non stiamo parlando di un'auto "normale"? E lui stava guidando un'auto normale senza mani?
2: Se l'autopilot era disattivato, perché l'auto avrebbe dovuto evitare l'ostacolo? Disattivato non significa "guida il conducente in tutto e per tutto"?
3: a causa delle strisce non ha visto l'ostacolo? E se fosse stato un animale? Quelli ora ci sono, ora no e sono ovunque sulla carreggiata. Mica rispettano le strisce! Come fa un radar a non percepire un ostacolo così massiccio anche se deformato? E se era un'auto ferma perché appena incidentata?
4: l'autopilota fa affidamento alle strisce per terra? E' una battuta, vero?
Paolo dixit:
"Se non ha dati sufficienti, non li ha neanche per capire che non ha dati sufficienti."

Genericamente, questa affermazione non è necessariamente vera; non so nel caso specifico: puoi specificare meglio?
Non credo che questa notizia modifichi la mia opinione, certo, per scrivere con piena cognizione di causa dovrei farci quanlche migliaio di km sopra ed al momento non ne ho l'occasione.
Io ritengo che l'avvento della tecnologia nella guida sia la benvenuta, però si deve stare bene attenti in che direzione va la tecnologia.
Questa nuova tecnologia sostituisce i rischi del sistema non assistito con altri rischi legati al cattivo uso dell'autopilot e alla scarsa attenzione sula manualistica.
Vero che le statistiche dicono che i nuovi rischi sono meno dei precedenti (con tutti i se e i ma evidenziati su quelle statistiche nei commenti al precedente articolo), ma perché comuqnue aggiungere un nuovo rischio ?
La tecnologia secondo me deve puntare al contrario, minimizzare i rischi precedenti senza crearne di nuovi. Già prima era la disattenzione che portava ai maggiori rischi, la tecnologia deve aumentare l'attenzione del conducente, e non mi pare che l'autopilot, a partire dal suo nome fuoriviante, sia in direzione di far avere più attenzione al conducente, quanto invece a favorirne la distrazione.
Michele/ENERGIA

Se rileggi bene, il sistema autopilot era attivo, non disattivo. E non ha un radar che legge gli ostacoli ma delle telecamere che seguono la segnaletica orizzontale. Cosa che ne determina la nomea di "assistente alla guida" e non "pilota automatico" nonostante il nome dato dalla casa.
Luke,

È legale vendere tritolo a chi lo usa per lavoro. E se il tritolo esplode per incuria o disattenzione da parte dell'acquirente, la colpa è di quest'ultimo non di chi l'ha prodotto.

Altrimenti non potresti nemmeno vendere un cucchiaio dato che usato in un certo modo ci si potrebbe facilmente cavare un occhio a qualcuno.
Luke: "Qualcosa che crea un pericolo mortale non andrebbe proprio venduta... Sarebbe legale vendere una cassa di tritolo e poi incolpare le persone perché sulla cassa compariva l'avviso "Attenzione può esplodere"?"

Vale per tutte le auto, però. Oppure per la varecchina o l'acido muriatico.
@Stupidocane
L'osservazione che fai è abbastanza ottusa, qualunque oggetto può uccidere, ma per causare la morte con un cucchiaio è necessaria intenzionalità. Un oggetto che causa la morte, tua e di chi ti sta intorno, semplicemente perché hai fatto un errore di valutazione non dovrebbe semplicemente essere venduto.
Se invece che vendere il tritolo sotto forma di un candelotto noto a tutti quelli che hanno visto i cartoni di will coyote uno vendesse nitroglicerina dentro dei palloni da calcio con sopra scritto "pericolo, non prendere a calci" sarebbe la stessa cosa ? Al primo bimbo di 4 anni, che non sa leggere, esploso cosa si direbbe ?
(ovviamente è una ipotesi per assurdo, ma questo è il senso dell'autopilot)
Luke,

Grazie per l'ottuso innanzitutto. ;)

In seconda battuta l'intenzionalità va di pari passo con il margine d'errore. Se compri esplosivi perché sei un minatore, sai che per un errore o una svista puoi uccidere persone. Lo stesso con il cucchiaio. Sai che se inciampi mentre corri in un ristorante affollato con un cucchiaio in mano, puoi (remotissima probabilità) cadere sul tavolo di un cliente e cavargli un occhio.

Nella fattispecie di questo incidente, non è colpa del produttore se il conducente ha ignorato gli avvertimenti di prendere in mano il volante. Ha scelto di correre col cucchiaio in mano ed ha fatto il danno. Sempre che non si sia trattato di malore.

In ogni tragedia c'è sempre una serie di concause che portano ad essa, a volte intenzionali a volte casuali ma spesso trattasi di un misto delle due.

Se davvero dovessi proibire di vendere automezzi killer, dovresti far smettere di vendere qualsiasi automezzo che circoli per strada, come ricorda pgc, dato che le auto sono tra le cause di morte maggiori in tutto il mondo. Probabile che l'autopilot di Tesla abbia cannato di brutto, ma non sappiamo quante volte invece abbia funzionato alla perfezione e quante di queste volte abbia salvato delle vite.

So che batti sul punto di non vendere qualcosa di pericoloso, ma se guardi bene, tutto è pericoloso. Persino vivere è un pericolo grandissimo dato che porta inevitabilmente alla morte.

Ad esempio, dovresti attivarti per proibire tutti i mezzi a due ruote circolanti su strada. O i treni. O gli aerei.O le navi. O, appunto, le auto.

Fanno enormemente più morti all'anno di tutti gli incidenti con tritolo mai avvenuti.

Ora torno ad ottusare.
@Luke
Un oggetto che causa la morte, tua e di chi ti sta intorno, semplicemente perché hai fatto un errore di valutazione non dovrebbe semplicemente essere venduto. Ti rendi conto di cosa implica questo? Dovresti impedire in toto la circolazione di qualsiasi mezzo (anche non a motore). Un carretto lanciato giu' da una discesa puo' ammazzare come e meglio di un'auto.
Un cavallo puo' uccidere.
Un cane puo' uccidere.
Sei sicuro di volere quello che chiedi?
I numeri cosa dicono? Es. macchine circolanti 1.000.000, incidenti mortali 1000, proporzione 1/1000, tesla circolanti 10, incidenti mortali 3, proporzione 3/10.
Un oggetto che causa la morte, tua e di chi ti sta intorno, semplicemente perché hai fatto un errore di valutazione non dovrebbe semplicemente essere venduto.

Ti rendi conto di cosa implica questo? Dovresti impedire in toto la circolazione di qualsiasi mezzo (anche non a motore). Un carretto lanciato giu' da una discesa puo' ammazzare come e meglio di un'auto.
Un cavallo puo' uccidere.
Un cane puo' uccidere.



Due possibili differenze tra quello che intende Luke e gli esempi riportati stanno
a) nel livello di competenza richiesto per condurre un'auto a guida automatica rispetto a un carrettto
b) nel nome. Ovvero, se il rottweiler fosse pubblicizzato come "assolutamente inoffensivo, ama i bambini", allora ricadremmo nel caso di cui si parla: chiamare autopilota una cosa che non lo è.
Luke,

Se credi che sia così, perché non lo verifichi di persona? Cerca quanti automezzi circolano nel mondo e confronta il numero con quello dei morti per incidente stradale ogni anno. Poi cerca quante Tesla circolano e confrontalo con quanti dei suoi occupanti rimangono uccisi dall'autopilot.

Buona ricerca.
Martinobri,

Non è questione di razza canina ma di come educhiamo figlio *E* cane. Il Rottweiler non fa eccezione.
Per inciso, se chiamo "pilota automatico" un mantenitore di distanza con cruise control adattivo E lo vendo come tale, sono in torto. Ma se chiariscono bene tramite un manuale per il cliente che NON È un vero pilota automatico, la colpa è del cliente che non l'ha letto.

E vorrei vedere: affidi la tua vita e quella di altri in mano a cosa? Ad una definizione fantasiosa senza sapere come funziona realmente? (Modalità guascona on) Masseiscemo?

Ma soprattutto, quando il sistema di cui sopra ti avverte che non sa come proseguire la marcia, te che fai? Aspetti lo schianto perché "Se lo chiamano pilota automatico vedrai che ora mi salva" oppure prendi in mano il volante?
a mio parere c'è un vecchio vizio su questo ed altri forum, quello di prendere le parole come "scatole". Le parole hanno dei bordi sfumati, "fuzzy" si direbbe in inglese (ed in matematica). Entrambi i punti di vista hanno il loro senso.

Anche il pilota automatico di un aereo di linea ha delle grosse limitazioni. In un certo senso è anch'esso un sistema di pilotaggio assistito. Per esempio in genere i manuali vietano di farne uso sotto una certa quota. Salvo qualche eccezione non sono in grado - o non sono sicuri - di decollare da A ed atterrare a B da soli. Non sono nemmeno in grado di fare il taxiing. Se un sensore funziona male, o in particolari condizioni, si disinseriscono automaticamente.

Quello della Tesla è un po' più dei sistemi di guida assistita in uso in alcuni veicoli, inutile negarlo. A differenza di quelli per esempio disponibili su alcuni modelli di Subaru (telecamera stereo) o di Toyota Corolla (sensori), sono integrati con il GPS e quindi sono in grado di scegliere la strada, di negoziare incroci, di cambiare di corsia, di parcheggiare. Quindi un pochino Tesla ha esagerato a chiamarli autopilota, un pochino ci sta, visto che sono realmente in grado, in certe condizioni, di fare cose molto più complesse del mantenere la corsia o la distanza dal veicolo che precedere.

Vedi per es. questo filmato: https://www.tesla.com/videos/autopilot-self-driving-hardware-neighborhood-long%20, che è ancora sul sito www.tesla.com. Notare che il "pilota" non mette mai le mani sul volante, quindi il software è stato in qualche modo modificato. E questo è un filmato Tesla, forse inopportuno.

Resta il fatto che non rispondere a ripetute richieste di riprendere il controllo del veicolo è o demenziale, oppure il guidatore ha avuto un malessere, cosa che accade e che spesso porta ad un incidente. Conosco una persona che si è addormentata in moto: guidava con la febbre ed aveva preso un antinfluenzale molto forte, cosa che non si potrebbe escludere nemmeno in questo caso. Oppure si è addormentato e non ha fatto in tempo a riprendere il controllo del veicolo. (conosco persone che riescono a continuare a dormire con una sveglia che suona a 10 cm dalle orecchie...).

Insomma, il mio consiglio è, come sempre, di evitare giudizi troppo rigidi, soprattutto in mancanza di completa informazione sui fatti. E' un buon metodo che andrebbe applicato sempre.
Tesla per la guida assistita sicuramente è un gradino sopra a molti altri suoi competitors ma, a mio parere, usa a sproposito il nome "autopilot" e permette al sistema alcune azioni deleterie per chi sta dentro l'auto. Vero è che per utilizzare un sistema così complesso è obbligatorio leggere e capire il manuale utente, ma spesso gli obblighi vengono aggirati, sopratutto se è facilissimo e banalissimo farlo (sono convinto che la maggior parte degli utenti Tesla non ha mai neppure aperto il manuale). Inolte il livello di assistenza è talmente elevato che automaticamente toglie attenzione a colui che dovrebbe sorvegliare ed intervenire in caso di errore del sistema. Impossibile!
Inoltre in tutti i campi, gli automatismi delle macchine, qualunque essi siano, sono attuati a sicurezza positiva, ovvero il mancato intervento mette in sicurezza l'utente. Per Tesla, dovrebbe essere facilissimo, dopo pochi secondi di segnalazioni ottiche ed acustiche ignorate, effettuare una manovra che accosta e disattiva la guida assistita (mi pare che venga pubblicizzato un sistema simile di Audi).
Infine, mi pare che per un livello così spinto di automazione, totalmente basato su rilevazioni ottiche sia del tutto insufficiente ed estremamente pericoloso; Il sistema deve poter "vedere" oltre quello che un occhio vede, in modo da interpretare precocemente l'ambiente e l'evoluzione della scena che precede il veicolo.
Ma se chiariscono bene tramite un manuale per il cliente che NON È un vero pilota automatico

E dagli.
Mi sembri Facebook che dice "perchè protesti perchè vendiamo i tuoi dati? Era scritto alla 43.567ma riga delle condizioni d'uso che tu hai sottoscritto!"
martinobri,

Ma stai scherzando, vero? Prenditi la briga di consultare il manuale della Model S facilmente reperibile su internet e poi dimmi cosa c'è di così impossibile da capire, trovare, mettere in pratica.

Veramente non capisco la tua posizione.
Sto dalla parte di Martino

Tesla ha chiamato il sistema "autopilot" palesemente per sfruttare gli effetti psicologici positivi dovuti al nome usato.

Ora sta pagando il prezzo anche per gli effetti -negativi- che quella scelta ha comportato, e non solo è giusto che lo paghi fino in fondo, ma gli effetti negativi e i costi (anche solo in termini di notorietà e reputazione) che questa pratica pubblicitaria comporta chiariscono bene perché la furbata di dare quel nome al dispositivo sia stata una mossa di scarso valore e perché non bisognerebbe mai ricorrere a questo genere di trucchetti.
Di solito non intervengo su queste tematiche, sia perché ritengo che la tecnologia sottostante sia ancora troppo immatura - e come tale abbia implicite limitazioni - sia perché si degenera facilmente in querelle tra fanboys e "skepticals".

Però continuo a pensare che si ponga troppo poca enfasi su un paio di questioni irrisolte.

Primo: Tesla fa indiscutibilmente giochi di marketing presentando un prodotto tutto avvolto di lustrini e di aura futuribile, ma poi fa scrivere il manuale di istruzioni dall'avvocato più che dagli ingegneri, per pararsi adeguatamente il fondoschiena se, come capitato, i lustrini perdono il luccichio ed emergono i limiti tecnologici del sistema. Questo, imho, basta ed avanza a far scadere l'immagine del produttore in misura esponenziale. Se analogo comportamente avesse avuto un qualsiasi altro produttore "classico", si sarebbe gridato allo scandalo e le vendite sarebbero crollate.

Secondo: mi va benissimo che il sistema sia in realtà un "assistente alla guida", ma si tratta di un "assistente alla guida" che tende a distrarre il vero conducente, oserei dire ad annoiarlo e a farlo addormentare.
Personalmente, le uniche due volte che ho rischiato seriamente di spiaccicarmi in autostrada è stato sull'adriatica al ritorno dalle ferie: 130 km/h fissi su una strada perfettamente rettilinea e il nulla intorno. Una noia mortale (quasi, per fortuna) e un sonno inevitabile: la distrazione uccide più della velocità.

Ergo: sarà anche comodo in coda, non discuto, ma allora non dovrebbe essere attivabile a velocità superiori a un X ancora da valutare.
E finché il sistema rimane un "assistente alla guida" che tende a ridurre la mia attenzione ma al contempo non è in grado di gestire almeno il 90% ma dei possibili imprevisti che si verificano su strada (e non delle situazioni "normali"), lo considero più pericoloso che utile, almeno per un autista di discrete capacità.

Con buona pace delle statistiche, visto che poi magari salva la vita del tizio che pare aver preso la patente alla scuola radio elettra (e ce ne sono tanti).
@Stu.

Non è quello che c'è scritto nel manuale, è quello che c'è scritto nel nome.
E' già stato fatto un esempio chiarificatore: non puoi mettere in vendita trucioli di legno chiamandoli "patatine". Anche se sul retro del sacchetto scrivi in caratteri evidenti che è legno e non patata.
Altrimenti il giudice ti darà torto quando qualcuno con acume mentale inferiore alla media (chi commercia su grandi numeri deve tenere conto che non esistono solo le persone sveglie appassionate competenti) si soffoca col truciolo.
Il tutto è peggiorato, come responsabilità morale, dal fatto che il truciolo di legno ne ammazza uno alla volta, l'automobile può ammazzarne tanti in un colpo.
@SirEdward:

non bisognerebbe mai ricorrere a questo genere di trucchetti.

Il mio prof di marketing in università, alla prima lezione, esordì dicendoci che da responsabili marketing bisogna sempre ricordarsi che dall'altra parte della scrivania c'è un branco di pecoroni ignoranti. Ma continuò ricordandoci che, alla sera, ci si alza dalla scrivania e si finisce dall'altra parte della scrivania di qualcun altro...
Martinobri,

Ma certo che posso vendere trucioli di legno col nome di "patatine". In America si chiamano anche "wood chips".

Mi fate venire in mente le pubblicità del Tantum Rosa che, dopo una prima campagna pubblicitaria, hanno aggiunto in sovraimpressione la dicitura "Non bere!"

Ma sarà che compri un prodotto per i lavaggi vaginali e, siccome si chiama "Tantum" e col "Tantum (verde)" ti ci disinfetti il cavo orale, se si hanno pruriti intimi giù belle sorsate di quello rosa...

Se la legge non ammette ignoranza, non dovrebbe permetterlo nemmeno nel marketing. Ergo, se vendo woods chips e qualche diversamente furbo pensa bene di pucciarle nella salsa cheddar e mangiarsele e magari strangolarcisi, che colpa ne ho io?

Non posso vendere un prodotto a prova d'imbecille perché non esiste prodotto che un imbecille possa trasformare in qualcosa di deleterio per sé stesso o per gli altri.

Dovrebbero smettere di vendere camion allora, dato che ogni tanto qualche imbecille li usa per farci una strage in strade affollate.
@Stupidocane
Ma certo che posso vendere trucioli di legno col nome di "patatine". In America si chiamano anche "wood chips".

Infatti, in America, le chiamano patatine di e non patatine e basta.

Per quel che riguarda il Tantum Rosa, molta gente si è sbagliata. Infatti la casa farmaceutica si è dovutra affrettare a cambiare le confezioni in modo che fossero notevolmente differenti e non quasi uguali (tranne il colore) come era prima.

La pubblicità dell'acqua che riduceva la "sensazione di gonfiore" è stata ritirata. Eppure era chiaro il concetto: mica riduceva il gonfiore ma te ne dava solo la sensazione.

La parola "Autopilot" potrebbe far perdere a Tesla una eventuale causa per pubblicità ingannevole. Non si può alludere, nemmeno nel nome, a qualcosa di falso.

In base a quanto dici, Se io vendessi un forno innovativo a "microonde" e scrivessi solo nel manuale che non si tratta di onde elettromagnetiche ma di microvibrazioni che, durante la cottura, fanno oscillare i cibi generando, appunto, delle "microonde", allora andrebbe bene.

Tesla così ha fatto. Ha venduto un prodotto oggettivamente un passo avanti agli altri ma lo ha spacciato, nel nome, per qualcosa che ancora non è.
Visto che i termini usati sono importanti, proviamo a fare chiarezza.

Tesla, al momento dell'ordine di una S o di una X, propone alcune opzioni. Una di questa è "Enhanced Autopilot", costo 73$/mese, dove è spiegato in chiare lettere che:

"Enhanced Autopilot should be considered a driver's assistance feature with the driver still responsible to be responsible for remaining in control of the car at all time".

Questo in un paragrafo di circa 100 parole. leggibilissimo ed inequivocabile. Inutile dire che l'autopilot non richiede assistenza umana: te lo dice Tesla dall'inizio.

Ma non finisce qui. Tesla offre anche un pacchetto ancora più avanzato, che si chiama "Full Self-Driving Capabilities" (notare che non è usato il termine "autopilot" in questo caso, sebbene ancora più avanzato), in cui anche il numero di sensori e telecamere praticamente raddoppia. Costo: 44$/mese. In questo caso, dice la descrizione, l'auto è in grado di guidare da un punto ad altro in totale autonomia. Addirittura, se non gli dici dove andare, guardando al TUO calendario e decidendo lei dove devi andare.

In questo caso non ci sono indicazioni come quella precedente: l'auto si assume realmente la responsabilità del viaggio e il pilota potrebbe anche non esserci nel veicolo:

https://www.tesla.com/models/design

Sarebbe interessante sapere se nell'incidente era in funzione la prima o la seconda opzione. Da quello che ho letto si parla di autopilot, non di FSDC.
pgc,

le Full Self-Driving Capabilities non sono attivate o attivabili al momento, come riportato (se non ricordo male) nella pagina descrittiva del configuratore. Quindi era in funzione l'Autopilot, specificamente la versione 2.
Paolo Attivissimo: "le Full Self-Driving Capabilities non sono attivate o attivabili al momento, come riportato (se non ricordo male) nella pagina descrittiva del configuratore. "

Si, ma è riportato nella pagina del configuratore (vedi link nel mio intervento precedente) che l'approvazione "varies widely from the jurisdiction", quindi, immagino, da paese a paese. Da altre fonti si dice che tutte le Tesla dispongono dell'h/w necessario (inclusa la 3), che include 8 camere, sensori ad ultrasori e un radar. Interessante perché il radar avrebbe potuto evitare questo incidente. Bisogna vedere se questo modello disponeva di questo h/w.
scusate: nel mio precedente intervento è saltato un pezzo: intendevo dire che tutte le Tesla realizzate dopo una certa data dispongono di questo h/w aggiuntivo.... Quindi quelle più vecchie non lo hanno a disposizione. Per questo non so se il radar c'era o meno in questa vettura e se era attivo.
http://www.lastampa.it/2018/04/30/motori/sta-per-essere-schiacciato-da-un-tir-cos-lautopilota-tesla-salva-una-vita-YexjVmAElQeJLDIbyAVv0M/pagina.html
In UK un idiota ieri condannato a 18 mesi di sospensione della patente, 100 giorni di community service, 10 giorni di riabilitazione e 1.800 GBP di multa per essersi seduto sul sedile del passeggero dopo avere inserito l'autopilot della sua Tesla S. Registrato da un'altro autista che ha denunciato la cosa alla Polizia. C'era un'elevata densità di traffico sull'autostrada dove questo è accaduto.

https://www.theverge.com/2018/4/29/17298750/tesla-autopilot-british-driver-charged-driving-sleeping
https://www.corriere.it/cronache/18_maggio_13/tesla-auto-pilota-automatico-tampona-camion-vigili-fuoco-cb48c076-5688-11e8-8dce-9e466002592e.shtml

Beh, il vantaggio di aver pronta una squadra di VVFF incazzati, non ha prezzo!
Scusate, ma questo è ridicolo.

"During the 18-minute 55-second segment, the vehicle provided two visual alerts and one auditory alert for the driver to place his hands on the steering wheel. These alerts were made more than 15 minutes prior to the crash.
UN avviso sonoro e DUE visuali? In 15 MINUTI?

"At 7 seconds prior to the crash, the Tesla began a left steering movement while following a lead vehicle."
[...]
"At 3 seconds prior to the crash and up to the time of impact with the crash attenuator, the Tesla’s speed increased from 62 to 70.8 mph, with no precrash braking or evasive steering movement detected."
Quindi l'autopilot ha deciso di ACCELERARE verso lo spartitraffico, poiché s'è perso l'auto che la precedeva.
Top.


https://ntsb.gov/investigations/AccidentReports/Pages/HWY18FH011-preliminary.aspx