skip to main | skip to sidebar
59 commenti

Tesla, primo incidente mortale con “pilota automatico” inserito

L’articolo è stato aggiornato estesamente dopo la pubblicazione iniziale del 2016/07/01. Ultimo aggiornamento: 2016/07/07 21:00.

Una Tesla Model S simile a quella dell’incidente.
Il 30 giugno è stato reso noto che a maggio scorso si è verificato negli Stati Uniti, in Florida, il primo incidente mortale a bordo di un’automobile (una Tesla Model S come quella mostrata qui accanto) in modalità di guida assistita.

La notizia ha comprensibilmente scosso non solo i proprietari di auto Tesla ma anche chi segue la rapida evoluzione dei veicoli a guida assistita o autonoma. Prima di saltare a conclusioni affrettate e diffondere dicerie ingannevoli è meglio riassumere i fatti noti a questo punto e correggere alcune storture (o vere e proprie bufale come quelle di Blitz Quotidiano) che stanno iniziando a circolare.


Per chi ha fretta


Joshua Brown con la sua Tesla (NYT).
– In Florida, il 7 maggio scorso un autoarticolato commerciale ha impegnato un incrocio che attraversa una superstrada a doppia carreggiata, ponendosi di traverso sulla carreggiata opposta, sulla quale sopraggiungeva un’auto Tesla Model S.

– L’auto, guidata dal quarantenne Joshua Brown, viaggiava con l’Autopilot inserito. L’Autopilot è un sistema di guida assistita (non autonoma) che mantiene l’auto in corsia e frena se rileva un pericolo, ma il conducente resta responsabile della condotta del proprio veicolo.

– Né il conducente né l’Autopilot hanno azionato i freni.

– La Tesla ha colpito la fiancata del rimorchio dell’automezzo commerciale, privo di barriere laterali anti-intrusione, ed è passata sotto il rimorchio stesso. L’abitacolo dell’auto è stato tranciato.

– L’auto ha proseguito la propria corsa uscendo di strada, attraversando una recinzione e finendo in un campo, fermandosi contro un palo dell’elettricità.

– Il conducente è morto sul luogo dell’incidente.

– Il conducente del camion, il sessantaduenne Frank Baressi, accorso sul luogo dove si è fermata l’auto, ha dichiarato di aver udito, ma non visto, quello che ha descritto come “un film di Harry Potter sullo schermo dell’auto”. Tesla Motors ha sottolineato che lo schermo dell’auto non è in grado di riprodurre video. È possibile che si sia trattato di un audiolibro, che il conducente della Tesla ascoltava abitualmente in auto, come si nota nel suo canale Youtube.

– Nella Tesla sono stati trovati un lettore DVD e un laptop, ma entrambi erano spenti (Reuters).

– Il conducente del camion e una testimone affermano che la Tesla viaggiava ad alta velocità: secondo la stima della testimone, oltre 136 km/h.

– Per un destino amaro, Brown era noto nel mondo delle auto a guida assistita perché recentemente aveva pubblicato un video nel quale mostrava come la sua Tesla aveva sterzato autonomamente per evitare un camion che gli stava tagliando la strada nel cambiare corsia in autostrada. Il video era stato segnalato anche da Elon Musk, CEO di Tesla Motors.

– Tesla Motors, in una nota di cordoglio, ha annunciato di aver notificato l’incidente immediatamente alla National Highway Traffic Safety Administration, ente che si occupa della sicurezza stradale, e di aver appreso il 29 giugno che l’NHTSA ha avviato una “valutazione preliminare” sul funzionamento dell’Autopilot durante l’incidente.

– Per chi ha paura che le Tesla e in generale le auto a guida autonoma o assistita siano un pericolo, non va dimenticato che i sistemi di guida assistita sono degli ausilii di guida. La pericolosità di una Tesla dipende dal suo conducente, non dall’auto.


I fatti in dettaglio


Secondo quanto è emerso fin qui, l’auto stava procedendo lungo una superstrada a doppia carreggiata (divided highway), la US 27, vicino a Williston, in Florida, con l’Autopilot (sistema di guida assistita, non autonoma) inserito. Sulla carreggiata opposta una motrice con rimorchio ha svoltato a sinistra per impegnare un incrocio che attraversa la superstrada; il mezzo pesante ha attraversato la carreggiata sulla quale procedeva la Tesla, presentandosi perpendicolarmente all’auto che stava sopraggiungendo.

Il luogo è quello mostrato al centro nella cartina qui sotto. Il camion era sulla carreggiata situata a nord e procedeva verso ovest; la Tesla era sulla carreggiata sud e si dirigeva verso est, come mostrato dalle frecce. La strada che attraversa verticalmente la superstrada, al centro dell’immagine, è la NE 140th Court.

Questo è lo schema pubblicato dalla Florida Highway Patrol dopo la pubblicazione iniziale di questo articolo e diffuso dal New York Times:

Secondo i dati forniti da Tesla Motors né il sistema di guida assistita né il conducente hanno azionato i freni. L’auto si è infilata di traverso sotto il rimorchio del camion, la cui parte inferiore ha tranciato la parte superiore dell’abitacolo dell’auto. Il conducente della Tesla, il quarantenne Joshua Brown, è morto sul luogo dell’incidente. Questo è il suo necrologio.

Il giorno dopo la prima diffusione della notizia, un servizio della rete televisiva ABC (video) ha mostrato le prime immagini dell’auto distrutta. L’auto si è fermata vicino all’abitazione di Bobby Vankavelaar, autore della foto mostrata qui sotto, intervistato dalla ABC nel suddetto servizio.

Credit: Bobby Vankavelaar / ABC

Questa è una panoramica che ho creato assemblando le immagini del servizio della ABC per capire dove si trovavano i resti dell’auto al momento delle riprese: sono nella zona cerchiata, a circa 270 metri dal punto della collisione, che è nell'angolo superiore sinistro della vista dall’alto offerta da Google Maps. Confrontando il rapporto di polizia con le immagini, sembra che nelle riprese i resti siano ancora nel luogo in cui l’auto si è fermata inizialmente.


Questo è il resoconto della polizia locale a proposito dell’incidente mortale:
...on May 7 at 3:40 p.m. on U.S. 27 near the BP Station west of Williston, a 45-year-old Ohio man was killed when he drove under the trailer of an 18-wheel semi. The top of Joshua Brown’s 2015 Tesla Model S vehicle was torn off by the force of the collision. The truck driver, Frank Baressi, 62, Tampa was not injured in the crash. The FHP said the tractor-trailer was traveling west on US 27A in the left turn lane toward 140th Court. Brown’s car was headed east in the outside lane of U.S. 27A. When the truck made a left turn onto NE 140th Court in front of the car, the car’s roof struck the underside of the trailer as it passed under the trailer. The car continued to travel east on U.S. 27A until it left the roadway on the south shoulder and struck a fence. The car smashed through two fences and struck a power pole. The car rotated counter-clockwise while sliding to its final resting place about 100 feet south of the highway. Brown died at the scene. Charges are pending.

I testimoni dell’incidente aggiungono dei dettagli, tutti da verificare.

Secondo quanto dichiarato dal conducente dell’automezzo alla Associated Press, la Tesla “ha trapassato il mio rimorchio così velocemente che non ho visto [il guidatore, Joshua Brown]”. Il camionista ha dichiarato inoltre alla AP di aver visto, dopo l’incidente, che sulla Tesla c’era “Harry Potter sullo schermo della TV” (“playing Harry Potter on the TV screen”), dando l’impressione che si trattasse di un film, ma ha precisato di aver soltanto udito il sonoro. Dato che lo schermo di bordo delle Tesla non può riprodurre file video (può solo mostrare le immagini della telecamera posteriore) se non viene hackerato ad alto livello, è possibile che si sia sbagliato e abbia invece sentito il sonoro di un audiolibro. La passione di Brown per gli audiolibri è documentata.

La polizia ha confermato (Reuters) di aver trovato nell’auto un lettore di DVD portatile, ma inizialmente non ha precisato se era in uso al momento dell’incidente. Il 7 luglio 2016 ha dichiarato che il lettore di DVD e il laptop trovati in auto erano entrambi spenti (Reuters).

Una testimone che stava guidando sulla stessa carreggiata della Tesla ha dichiarato di essere stata sorpassata dalla Tesla mentre lei procedeva a 85 miglia orarie (circa 136 km/h).

Il limite di velocità sulle divided highway in Florida è 65 miglia orarie (circa 105 km/h) (Florida DOT).

La National Highway Traffic Safety Administration, ente statunitense preposto alla sicurezza del traffico, esaminerà l’Autopilot della Tesla per una valutazione preliminare allo scopo di verificare che abbia funzionato “nel modo atteso”, dice Tesla Motors nell’annunciare la notizia con cordoglio, intitolandola A Tragic Loss (“Una perdita tragica”) e precisando che si tratta del primo incidente mortale di cui è a conoscenza su circa 209 milioni di chilometri percorsi dalle Tesla mentre l’Autopilot era inserito. La media statunitense su tutti i veicoli, nota la casa automobilistica, è un incidente mortale ogni 151 milioni di chilometri.

L’NHTSA, nota la BBC, ha dichiarato che “l’apertura della Valutazione Preliminare non deve essere interpretata come un’osservazione che l’Ufficio delle Indagini sui Difetti ritiene che vi sia o non vi sia un difetto nei veicoli in oggetto” (“The opening of the Preliminary Evaluation should not be construed as a finding that the Office of Defects Investigation believes there is either a presence or absence of a defect in the subject vehicles”).

Tesla Motors, sorprendentemente, afferma già ora che “né l’Autopilot né il conducente hanno notato la fiancata bianca del camion contro un cielo fortemente illuminato, per cui il freno non è stato azionato” (“Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied”). Il mancato azionamento del freno è presumibilmente noto a Tesla dalla telemetria inviata dall’auto (tutte le Tesla comunicano costantemente con la sede centrale), ma la certezza con la quale vengono citate come concausa le condizioni d’illuminazione sembra indicare che il mancato rilevamento di ostacoli in queste condizioni è una questione già nota a Tesla Motors. In effetti il manuale della Tesla Model S, a pagina 58-59, dice: “Forward Collision Warning cannot always detect vehicles, bikes, or pedestrians, and you may experience unnecessary, inaccurate, invalid or missed warnings for many reasons, particularly if: [...] Bright light (oncoming headlights or direct sunlight) is interfering with the camera's view”. Non ci sono informazioni in merito nel manuale della versione 7.1 di software della Model S.

L’annuncio di Tesla Motors sottolinea anche che l’Autopilot è sperimentale (è chiaramente indicato più volte che si tratta di software beta ed è l’utente che sceglie di attivarlo), che è “una funzione di assistenza che richiede che si tengano le mani sempre sul volante” e che l’auto ricorda al conducente che deve “mantenere il controllo e la responsabilità” ed essere “pronto a intervenire in ogni momento”. In altre parole, ribadisce una cosa che molti dimenticano: l’Autopilot è soltanto un assistente di guida e non sostituisce il conducente. Le prodezze documentate su Youtube di chi toglie le mani dal volante o addirittura legge il giornale o si siede dietro sono totalmente diseducative oltre che illegali. La Tesla, almeno per ora, non è un’auto a guida autonoma, anche se il nome Autopilot forse spinge molti a pensarlo e ad abusare delle sue funzioni.


Precisazioni di Elon Musk e Mobileye


Come mai l’Autopilot non ha rilevato l’ostacolo? Questa è probabilmente la domanda che più delle altre sta turbando i proprietari di Tesla e di auto a guida assistita in generale, oltre che le case automobilistiche che producono questi veicoli. La telecamera dell’Autopilot, dice Tesla Motors, è stata ingannata dalle condizioni d’illuminazione, ma la Tesla è dotata anche di un radar: perché non è intervenuto?

Lo spiega Elon Musk, CEO di Tesla Motors in un tweet del 30 giugno: “Radar tunes out what looks like an overhead road sign to avoid false braking events”. In altre parole, il radar ha interpretato la fiancata del rimorchio (un grande rettangolo messo di traverso sopra la carreggiata) come se fosse un cartello stradale sospeso e quindi l’ha ignorato.

Mobileye, l’azienda israeliana che sviluppa alcune delle tecnologie dell’Autopilot, ha commentato l’incidente notando che “l’attuale tecnologia anticollisione, o Automatic Emergency Braking (AEB), è definita come una protezione contro le collisioni posteriori ed è progettata specificamente per questo. Quest’incidente ha riguardato un veicolo che attraversava lateralmente, cosa per la quale i sistemi AEB della generazione corrente non sono progettati per intervenire. I sistemi di Mobileye includeranno capacità di rilevamento di svolta laterale trasversale alla traiettoria [Lateral Turn Across Path] (LTAP) a partire dal 2018 e le classificazioni di sicurezza Euro NCAP la includeranno a partire dal 2020.”


Considerazioni generali


Sulla base dei fatti resi noti fin qui l’incidente sembra essere dovuto più all’attraversamento incauto della superstrada da parte del camion che all’uso di un sistema di guida assistita e non è chiaro, per ora, se l’incidente sarebbe stato evitabile, con o senza Autopilot e simili. È possibile che la velocità sostenuta e la fiducia del conducente dell’auto nell’Autopilot abbiano allungato i suoi tempi di reazione o ridotto l’attenzione, ma per ora si tratta di pura congettura.

Va notato, inoltre, che un incidente del genere difficilmente potrebbe avvenire in Europa, dove gli attraversamenti a raso delle strade a scorrimento veloce sono molto limitati se non inesistenti e dove inoltre le norme impongono ai camion di avere barriere posteriori e laterali che impediscono l’intrusione dell’auto, consentendo alle zone di collassamento programmato dell’automobile di assorbire parte dell’energia d’impatto.

La vera questione da chiarire non è tanto il funzionamento corretto dell’Autopilot, che comunque non è progettato per evitare questo genere di incidenti, dato che la guida è sempre sotto la responsabilità del conducente: è se la guida assistita, come concetto generale indipendente dalla singola marca, abbassi troppo la vigilanza del conducente, finendo per allungare i tempi di reazione perché il conducente non è attento o non interviene perché si aspetta che lo faccia l’auto.

Tesla Motors dice che le statistiche indicano “un miglioramento significativo della sicurezza rispetto alla guida puramente manuale” e anche il presidente del National Transportation Safety Board, Christopher Hart, è dello stesso avviso. Un singolo incidente in regime di guida assistita dopo 209 milioni di chilometri va confrontato con quasi 1,3 milioni di morti l’anno nel mondo a causa di incidenti automobilistici: in media 3287 al giorno. In altre parole, la guida umana causa un 11 settembre ogni giorno. Ma dato che le scelte di sicurezza vengono fatte dagli utenti usando la pancia e non la testa, questo incidente potrebbe avere conseguenze importanti sulla diffusione delle auto a guida semiautomatica e in particolare sull’immagine della Tesla. Al momento dell’annuncio dell’indagine le azioni di Tesla Motors hanno perso il 3%, dice la BBC. Successivamente hanno recuperato.


Fonti: Electrek, Ars Technica, Teslarati, BBCThe Register.
Invia un commento
I commenti non appaiono subito, devono essere tutti approvati da un moderatore. Lo so, è scomodo, ma è necessario per tenere lontani scocciatori, spammer, troll e stupidi: siate civili e verrete pubblicati qualunque sia la vostra opinione; gli incivili di qualsiasi orientamento non verranno pubblicati, se non per mostrare il loro squallore.
Inviando un commento date il vostro consenso alla sua pubblicazione, qui o altrove.
Maggiori informazioni riguardanti regole e utilizzo dei commenti sono reperibili nella sezione apposita.
NOTA BENE. L'area sottostante per l'invio dei commenti non è contenuta in questa pagina ma è un iframe, cioè una finestra su una pagina di Blogger esterna a questo blog. Ciò significa che dovete assicurarvi che non venga bloccata da estensioni del vostro browser (tipo quelle che eliminano le pubblicità) e/o da altri programmi di protezione antimalware (tipo Kaspersky). Inoltre è necessario che sia permesso accettare i cookie da terze parti (informativa sulla privacy a riguardo).
Commenti
Commenti (59)
Sognamo auto che guidano da sole ma non siamo in grado di fare autostrade senza incroci a raso. Meritiamo l'estinzione.
Credo che ogni patentato con un minimo di esperienza concorderebbe sul fatto che a guidare una vettura debba essere un solo soggetto. In due prima o poi si fanno errori.
Cosa succede se ho le mani sul volante (come raccomandato da Tesla) e l'autopilot decide di sterzare a destra per evitare un ostacolo mentre io voglio sterzare a sinistra? Voglio dire: o guida lui o guido io. Se guida lui, io faccio le parole crociate sul sedile di fianco; se guido io, prendo io le decisioni e compio io le manovre, anche (e soprattutto) in caso di emergenza.
Se tutti i veicoli in circolazione fossero condotti interamente da computer, magari coordinati da una centrale, sono sicuro che gli incidenti diminuirebbero drasticamente. Ma la guida assistita mi sembra una soluzione ibrida che rende meno chiaro chi sta guidando, con i rischi del caso.
Forse Tesla Motors dovrebbe aggiungere una sorta di notifica quando viene rilevato un ostacolo per cui la mancata apparizione dovrebbe mettere in allarme il pilota se invece l'ostacolo c'è. O la notifica c'è ma il pilota era troppo distratto?
In ogni caso nessun meccanismo è perfetto, qualche incidente senza dubbio ci sarà anche in futuro ma, essendoci la telemetria, il sistema si affinerà sempre più.
Capisco che il rilevatore dalla immagini possa essere inbrogliato dalle condizioni video, ma non c'e' un LIDAR un radar o qualche tipo di rilevatore fisico delle distanze?
non e' un problema solo dell'autopilot. C'e' la tendenza a pensare che "tanto c'e' la tecnologia" e quindi ad osare di piu'. Se hai una macchina senza abs tenderai ad andare piu' piano (specialmente sul bagnato) perche' sai che se non ci pensi tu non ci pensa nessuno. Se sai di avere l'abs vai piu' tranquillo. Forse troppo. Ecco ho finito di fare il luddista...
Oltre alla luce, esistono anche altri modi per rilevare ostacoli... Ad esempio si possono usare gli ultrasuoni. Oppure si può togliere il filtro IR dal sensore della telecamera e quindi avere anche una visione agli infrarossi: immagino che la fiancata del camion o comunque almeno il motore, siano chiaramente visibili agli infrarossi...
Marco, con una telecamera normale non rilevi le emissioni di calore anche se levi il filtri. È una questione di lunghezze d'onda.
primo incidente mortale di cui è a conoscenza su circa 209 milioni di chilometri percorsi dalle Tesla mentre l’Autopilot era inserito. La media statunitense su tutti i veicoli, nota la casa automobilistica, è un incidente mortale ogni 151 milioni di chilometri..

Interessante. Mi sembrava di avere letto una dichiarazione di Musk secondo cui l'autopilota fosse GIA' molto più sicuro della guida umana. Invece almeno per adesso stiamo sullo stesso livello.

Riguardo la tecnologia usata da Tesla, la sensoristica si basa su una telecamera mono Mobileye, e sull'uso del GPS. E' esattamente la stessa usata da Audi, BMW, Ford, GM, etc. anche se ovviamente l'implementazione può essere diversa. In pratica nella normalità funziona alla grande, ma nelle situazioni inusuale a quanto risulta ha un sacco di limitazioni.

Il sistema Google Autopilot invece usa un LIDAR con 64 beam con rivelazione effettiva della posizione con un errore di 10 cm. Un altro pianeta, ma ad un costo per adesso proibitivo.
Posto che non abbiamo i dettagli di cosa sia successo (camion che svolta all'improvviso senza dare precedenza, velocità della macchina troppo elevata) c'è da notare che non è la prima volta che i sensori hanno problemi a vedere i rimorchi dei camion (nella parte centrale e posteriore)... io ricordo news di poco tempo fa con una Tesla infilata sotto il rimorchio in fase di parcheggio (o summon non ricordo)...
Sicuramente il sistema è "embrionale" e non è stato capace di intervenire. Com'è stato detto, il pilota potrebbe aver esitato dall'intervenire in quando aspettava che lo facesse il comnputer e, forse, quando si è reso conto che il computer stava sbagliando era troppo tardi. Nell'articolo non si cita lo spazio di arresto a disposizione. Il camion ha tagliato la strada alla macchina che, in ogni caso, non aveva spazio sufficiente anche se avesse frenato? Oppure se avesse frenato l'impatto sarebbe stato evitato?
Grazie pgc, molto interessante. E quindi nella notte l'Autopilot non può fare niente? In effetti, affidare tutto ad un sistema di elaborazione delle immagini mi sembra davvero azzardato. E che succede se in un panorama innevato una persona vestita di bianco attraversa la strada?
Come riportato nell'articolo, l'autopilot è un assistenza alla guida ma non una guida autonoma. In questo video (https://www.youtube.com/watch?v=_lt3btKi8T8) al min 9.21 si vede l'autopilot che "avvisa" di non riuscire a chiudere una curva, mentre al min 9.16 sempre l'autopilot a momenti mette sotto un ciclista sulle strisce pedonali. Andare in giro in città "senza mani" è decisamente un azzardo.
Faccio comunque presente che il problema di base è stato il camion che ha attraversato un'autostrada... All'aumentare delle guide autonome (per macchine e camion) diminuiranno drasticamente gli incidenti. Nel mentre, un computer immerso in una società di pazzi umani che guidano chissà come, riesce a non essere coinvolto in incidenti meglio di un essere umano. Da apprezzare, ma la strada da fare è ancora tanta

ps: vorrei vedere la Tesla con autopilot attivo sul GRA....
Secondo alcune fonti il pilota «stava guardando un film di Harry Potter». (Corriere della sera)

Se fosse vero l'autista veramente ha avuto un eccesso di fiducia nella tecnologia.
pgc e delio,

le automobili Tesla hanno una telecamera, un radar e dodici sensori a ultrasuoni.
http://images.autoworldnews.com/data/images/full/18510/tesla-software-7-update.png
https://www.teslamotors.com/it_IT/blog/your-autopilot-has-arrived?redirect=no
Chiamare "Autopilot" qualcosa che non è "Auto", ma solo "Assisted", è fuorviante e pericoloso.
Hai ragione Olivier, giusta precisazione, ma i sensori funzionano solo entro 5 metri. Nelle condizioni che hanno causato l'incidente entrava in gioco la sola telecamera.
In torto quanto volete il camionista per la manovra (probabilmente) azzardata, in torto anche il guidatore della Tesla per essersi distratto alla guida, ma il punto fondamentale è che i sensori non hanno rilevato il camion ed è quello il grosso problema e per me è assolutamente inconcepibile che dei sensori (che teoricamente dovrebbero superare i limiti umani) abbiano dei punti ciechi.
pgc,

più che altro è il radar la parte fondamentale che hai tralasciato.

EpSiLoN74,

la "fonte" è l'autista del camion che ha causato l'incidente svoltando senza guardare bene. Inoltre, in alcuni video precedenti Joshua Brown ascoltava audiolibri in auto.
Mancano troppe informazioni per poter dare un giudizio. Se per esempio il camion abbia attraversato senza dare la precedenza, non c'è autopilota che tenga, vai a sbattere. Magari (forse) in questo caso sarebbe stato meglio andare a sbattere contro le ruote, la struttura a cedimento controllato, forse, avrebbe attutito l'impatto con conseguenze meno gravi. Ripeto, senza altri dettagli stiamo a parlare di aria fritta.
Piuttosto, come ho letto oggi, come potrebbe decidere un auto-pilota in caso di impatto inevitabile: protegge i passeggeri o un pedone?
commento sull'ambiente:
costruire una highway a carreggiate separate da un pratino senza barriere fisiche longitudinali e PER DI PIÙ con incroci trasversali a raso dimostra che gli ammmericani non capiscono un accidente di auto e di strade.
inoltre, come giustamente dice Paolo, le norme americane ancora non impongono barriere anti-intrusione intorno ai rimorchi: questo fa molto figo nei film in cui macchine sportive passano sotto i camion, ma pare avere qualche controindicazione.


detto ciò.
È possibile che la fiducia del conducente dell’auto nell’Autopilot abbia allungato i tempi di reazione o ridotto l’attenzione, ma si tratta di pura congettura.

no, non è pura congettura.
anni fa ho scritto un libretto di sicurezza stradale per motociclisti e ho fatto varie ricerche sul tema.
diversi studi hanno dimostrato come, soprattutto nei primi tempi dell'introduzione dell'abs sulle auto i conducenti con auto con ausili alla frenata seguissero i veicoli che precedevano a distanza minore rispetto a quanto facessero altri conducenti.
il prof. Wilde della Kingstone University ha derivato nel 1994 la teoria dell'"Omeostasi del rischio", secondo la quale, in pratica, all'aumento delle dotazioni di sicurezza corrisponderebbero comportamenti meno prudenti dei precedenti.

quindi è roba già vista: sono sicuro che il conducente avesse una soglia d'attenzione assai più bassa che guidando in prima persona, o comunque che abbia aspettato ad intervenire fidandosi di una probabile reazione del sistema automatico.


@rob:
ni.
su tutti gli aeroplani vola normalmente l'autopilota, spesso comandato dall'fms, quindi i piloti in carne ed ossa hanno una mera funzione di controllo e gestione dei sistemi.
sui comandi degli aerei c'è comunque un pulsante di sgancio rapido dell'AP, ed in ogni caso i piloti possono imporre il loro comando sull'autopilota sforzando leggermente contro i movimenti automatici.
non so esattamente come funzioni sulla tesla, ma non vedo difficoltà nel caso.

@Scatola Grande:
mi pare che il cruscotto della tesla mostri già l'icona di ciò che l'auto "sente" e "vede" intorno a sè.
il punto è che spesso i tempi di reazione necessari non permettono di confrontare il "fuori" col "dentro". soprattutto in caso di attraversamenti trasversali come questo, in cui la velocità relativa con l'ostacolo improvviso è 0.

@Ciskje:
le tesla non usano un lidar. non piace a Musk.
hanno una (sola) telecamera frontale (non so in che frequenza d'onda lavori, ma immagino che sia nel vicino infrarosso per semplificare l'uso notturno...), un radar frontale (non so in che banda) e sensori ad ultrasuoni per la prossimità.

a latere, devo dire che la proliferazione di emissioni radar sulle strade non è che proprio mi renda felicissimo: da una parte per il fatto che non sono emissioni che facciano tanto bene (sugli aerei per esempio è vietato accendere i radar meteo al suolo per evitare di "cuocere" gli addetti aeroportuali... vero è che le potenze di emissione in gioco sono diverse, ma insomma...), dall'altra perchè comincio ad avere timori sulle interferenze.
e quando tutte le auto avranno un radar?
se un cellulare mi interferisce col wifi pazienza, ma se il mio radar becca i segnali della panda dietro di me e mi schianto contro un palo?


comunque, il fatto che prima o poi ci sarebbe stato un problema credo fosse chiaro a tutti.
e secondo me è anche l'aspetto più rischioso della scelta fatta da Musk, che in pratica ha buttato in strada un sistema in fase early beta facendo fare da cavie ai suoi clienti.
ok, così raccoglie il cinquantuplo dei dati rispetto a chi si mette con dieci macchinine a fare le prove nel parcheggio di casa, ma da un punto di vista di immagine pubblica stai rischiando di mandare tutto a prostitute.
se il sistema si rivelasse poco affidabile mentre sei con utenti reali ti sei giocato la possibilità di faro accettare alla gente.
i motociclisti c'hanno messo 30 anni ad accettare l'abs...
@pgc
La maggior sicurezza dell'autopilot la potremo vedere quando la maggior parte dei veicoli circolanti avrà l'autopilot, perchè se un tir ti viene addosso l'autopilot non ti rende immortale, stessa cosa se sei fermo ad un incrocio e l'auto che segue non accenna minimamente a decelerare (come accaduto alla google car)
Non ho mai capito per quale motivo tecnico usino telecamere e non radar. Come ha giustamente detto qualcuno, questo accade anche nella auto tradizionali dotate di frenata assistita. Ma forse in quest'ultimo caso è più accettabile, perché comunque c'è un pilota vigile alla guida, mentre per la guida autonoma mi sembra imperativo usare LIDAR/RADAR.
Sicuramente comedice Paolo le scelte di sicurezza vengono fatte usando la pancia e non la testa; ma pensare che basti il disclaimer ", l’Autopilot è sperimentale ,mani sempre sul volante ecc" per evitare disastri è colpevolmente ingenuo.
E' ovvio che se la macchina guida da sola, la tua attenzione diminuisce e non sarai in grado di intervenire con la dovuta velocità. Una regolamentazione dei sistemi di guida automatica non puo fare "finta di niente" su questo comportamento cosi naturale ed umano.
Qui è morto uno per colpa del proprio autopilota, ma quanto capiterà che una macchina a guida assistita ucciderà un estraneo, a chi daremo la responsabilità?
Qui è andata "bene" che è morto il proprietario dell'auto e basta, ma quando morirà uno estraneo a chi daremo la colpa? alla Tesla? al pilota automatico? all'autista che non è intervenuto?
Pgc

"per adesso stiamo sullo stesso livello"

Circa il 25% di miglia percorse in più prima di incorrere in un incidente mortale non lo definirei lo stesso livello ;)
Ho un terribile dubbio. Tesla sostiene che anche il conducente umano non avrebbe visto il camion, mancando l'azionamento del freno dalla telemetria, da quel che ho capito. Sembrerebbe quasi che l'Autopilot non abbia fatto peggio di un umano. Però che un umano non veda del tutto il rimorchio sullo sfondo chiaro è un po' sorprendente e vedrebbe comunque tutto il resto e le ruote. La storia del film di Harry Potter l'avrebbe riferita il camionista, che però essendo coinvolto non so quanto sia affidabile e a quanto si riporta al momento il camionista non l'avrebbe neanche visto, ma avrebbe solo sentito l'audio del film; mentre Tesla dice che non si possono vedere film dallo schermo touchscreen. Se è vero ciò che dice Tesla, forse potrebbe avere usato uno smartphone o tablet per vedere il film, ma la testimonianza è un po' dubbia. Ora, a guardare i video di Brown, piuttosto entusiasta dell'Autopilot, l'unico che ha avuto davvero tante visualizzazioni è stato quello segnalato da Musk, in cui l'Autopilot lo salva. 1,9 milioni di visualizzazioni ora. Certamente sono cresciute dopo la notizia, ma saranno state un bel po' comunque anche prima, quando ad aprile il video era stato segnalato da Musk e riportato da diversi siti di notizie. I suoi altri video vanno da qualche centinaio a qualche migliaio di visualizzazioni. Il dubbio è che potrebbe essersene accorto del camion, anche più o meno in ritardo, ma che in quell'attimo si aspettasse di venire salvato un'altra volta. Non dico che avesse lasciato fare, aspettandosi di caricare un altro video di successo, però l'esperienza precedente e il successo avvenuto un mese prima potrebbe averlo influenzato inconsciamente, dandogli un eccesso di fiducia. Che fosse l'eccesso di fiducia o fosse effettivamente distratto o incredibilmente non avesse davvero visto il camion, è evidente che la guida assistita dell'Autopilot non ti può salvare da ogni evenienza. L'Autopilot non è comunque un fiasco, aiuta già e la tecnologia migliorerà, ma bisogna avere le aspettative giuste.
@F

pilotare un aereo è cosa completamente diversa dal guidare un'auto... il pilota automatico negli aerei lo inserisci quando sei in quota e vai dritto. Sono condizioni che in auto, per mille motivi (traffico, curve, cambiamenti anche lievissimi della pendenza della strada, ecc ecc, non si presentano mai. Il conducente deve regolare continuamente volante e velocità. Se la Tesla decide di modificare improvvisamente direzione e il volante mi sfugge dalle mani, si crea inevitabilmente una situazione potenzialmente molto pericolosa. In auto, il conducente non può non essere uno solo.

@A

risponde il conducente. Alla Tesla hanno messo il disclaimer proprio per quello, principalmente: per evitare le grane legali.
Forse sarebbe il caso mettere un limite di velocità oltre il quale l'assistenza alla guida si disattiva. Io lo metterei molto basso: intorno ai 20 o 30 km/h, giusto un aiuto quando si guida nelle interminabili e noiose code.

Al di sopra della velocità limite conserverei solo il regolatore di velocità: il guidatore è costretto a stare attento perché, anche se può essere adattivo, il volante lo devi tenere tu.

Poi, quando ci sarà la guida del tutto automatizzata (nel senso che si potrebbe impostare l'auto per portare i figli a scuola senza nessuno alla guida) si potrebbe togliere questo limite e... inserire nel codice della strada la multa per guida senza conducente.
Il confronto con il tasso di incidenti totale in US è improprio, perché probabilmente c'è correlazione tra tasso di incidenti/km e il modello di auto. Anche confrontare il tasso totale tra Tesla senza autopilota e Tesla con autopilota (un numero che evidentemente Tesla può calcolare, ma non dice) funziona male visto che la scelta di attivare l'autopilota correla probabilmente con le abitudini del guidatore (cioè chi tende ad usare poco l'autopilota magari è un guidatore tendenzialmente più prudente, o viceversa). Probabilmente è ancora presto per stabilire che le auto autonome sono più sicure di quelle manuali (anche se sembra ragionevole).
@rob:
pilotare un aereo è cosa completamente diversa dal guidare un'auto... il pilota automatico negli aerei lo inserisci quando sei in quota e vai dritto.

ehm...
so che i colleghi giurano sul sangue di un capretto di farlo sapere in giro e non voglio fare l'Homer Simpson della situazione, ma tecnicamente potrei inserire l'autopilota appena retratto il carrello al decollo e riprendere in mano i comandi dopo che l'aereo ha frenato e rallentato alla fine della pista dopo essere atterrato.
i modelli aggiornati allo standard ACAS II eseguono anche le azioni di evitamento coordinate in caso di intrusione nelle separazioni minime (in pratica se due aerei si avvicinano troppo i computer decidono autonomamente che contromisura adottare e si dicono "io vado di qua, tu vai di là" tramite datalink).
gli AP aeronautici eseguono SID, STAR, entrate in holding, areanav, DME arc... gestiscono l'autothrottle asservite tramite FADEC e autobrake per quando devono frenare.
altro che andare dritto in quota...
e in tutte queste condizioni SE HO LE MANI SUI COMANDI appena l'aereo fa qualcosa che non voglio che faccia mi basta sfiorare un pulsante per sganciare l'autopilota.
e se anche non lo sgancio posso comunque imporre il mio input.

ripeto, non so esattamente su una tesla quale sia il limite per l'override di sicurezza, ma se l'auto decide di andare a destra, io ho le mani sul volante (come dovrei avere) e lo tengo fermo non credo che siano stati talmente scemi da permettere all'autopilota di vincere il mio comando manuale...
e direi che la migliore (o peggiore) dimostrazione che i comandi manuali hanno ancora la meglio su quelli automatici ce l'hai ogni volta che un mentecatto con un macchinone che DI CERTO ha avvisi e regolatori automatici per la distanza di sicurezza ti si appiccica al sedere in strada.
per quanto mi riguarda la prima funzione di un autopilota da auto dovrebbe essere che se il cretino alla guida scende sotto la distanza di sicurezza da chi precede l'auto prende il comando, accosta, chiama i carabinieri e nell'attesa ti insulta con la sintesi vocale...


@Guastulfo (Giuseppe)
Forse sarebbe il caso mettere un limite di velocità oltre il quale l'assistenza alla guida si disattiva. Io lo metterei molto basso: intorno ai 20 o 30 km/h

in realtà Musk ha parlato di un'"area grigia" intorno ai 30-70 km/h in cui l'autopilota ha difficoltà nel funzionare.
al di sotto i problemi si presentano così lentamente che l'auto ha comunque modo di reagire, e, anche sbagliasse, le energie in gioco sono talmente basse che i danni sarebbero minimi.
le velocità superiori sono quelle da autostrada, in cui tipicamente le auto hanno una guida ordinata (povero ingenuo...) e prevedibile, per cui basta seguire il traffico intorno e le strisce per terra.
secondo me nel caso in oggetto la particolare e idiotissima condizione della strada ha fornito l'occasione perchè l'incidente si presentasse.

la "zona grigia" è invece quella delle tipiche velocità cittadine, troppo lente per un traffico ordinato ma troppo veloci per sperare che tutto si risolva con un paraurti ammaccato.


a ripensarci, a me la cosa che m'ha colpito è che l'auto abbia proseguito la sua corsa dopo aver perso tutta la parte superiore... possibile che la tesla non freni quando "sente" che c'è stato un impatto, o comunque che i sistemi non sono più integri?...
bah...
"si tratta del primo incidente mortale di cui è a conoscenza su circa 209 milioni di chilometri percorsi dalle Tesla mentre l’Autopilot era inserito. La media statunitense su tutti i veicoli, nota la casa automobilistica, è un incidente mortale ogni 151 milioni di chilometri." quindi, tenendo conto che.:
.-si parla di veicoli, (non di autoveicoli), quindi anche moto, motorini, ecc...;
-non si cita i il top di strada (urbana, superstrada, montagna...);
-non si cita il tempo(bello, brutto, neve, nebbia...)
tutte condizioni che peggiorano le probabilità di incidenti non di poco, con solo 209 contro 151, si può con certezza dire che quella tecnologia guida peggio di un neo patentato imbranato!
Credo molto poco in un futuro con auto che si guidano da sole. Il vero futuro dei trasporti secondo me sarà su rotaia e controllato dal computer. Immaginate tutte città con una fitta rete di metropolitane che si integrano con il sistema ferroviario, se funzionasse, chi avrebbe bisogno di un'automobile? Purtroppo non vivrò abbastanza per vederlo...

Per lavoro mi occupo di visione artificiale e posso dirvi che questo è un campo ancora molto, molto, moooolto nuovo, dove i risultati sono tutt'altro che consolidati. Le immagini da elaborare poi hanno la pessima abitudine a non collaborare, quindi tu puoi sviluppare l'algoritmo più sensazionale del mondo, ma esisterà sempre una situazione di luce, di contrasto, di colore, di ... che farà fallire miseramente il tuo algoritmo, ed a volte queste condizioni non sono per niente estreme.

Faccio un esempio: nei primi anni del 2000 lavorai ad rilevatore di sorpasso da installare nello specchietto laterale delle automobili. Il sistema confrontava la sequenza delle immagini per stabilire se un oggetto si avvicinava a noi e con quale velocità. La maggior parte delle volte funzionava bene, ma indovinate quando falliva?

Durante la notte? NO
Con il sole di fronte? NO
Con poca luce o poco contrasto? NO
Quando l'auto che supera ha lo stesso colore dell'asfalto? A VOLTE

Il sistema falliva quando c'erano certi tipi di guardrail e l'auto viaggiava ad una certa velocità. Che c'entrano i guardrail e la velocità? Avete presente le ruote delle diligenze di certi film western che sembrano girare al contrario? Il problema era esattamente questo: ad una certa velocità e con un certo frame rate le parti verticali del guardrail sembravano muoversi nella direzione che avrebbe avuto un'auto che ci stava sorpassando.

Questo è un esempio di quali trabocchetti possono nascondersi nell'elaborazione digitale delle immagini. Io come programmatore non mi fiderei molto dell'autopilot della Tesla.
Per di più, essendo la macchina finita sotto il rimorchio, la manovra del camion era in atto da un po' di tempo, altrimenti sarebbe finita contro la motrice o contro la parte frontale (dove ci sono le ruote anteriori e la cabina).
Quindi, probabilmente, non c'è stata frenata perché la Tesla non "ha visto" ed il guidatore, probabilmente con il sole negli occhi, si è fidato e non stava guardando.
Continuo a ritenere il comportamento di Tesla ben oltre il consentito per quanto riguarda il disprezzo della vita umana: lo chiamo "autopilota", gongolo appena posso dei suoi discutibili successi, ma poi me ne lavo le mani dicendo che è colpa del guidatore.
Un dispositivo così non serve sui brevi tragitti, ma su quelli lunghi dove la noia viene prima della fatica ed entrambe, senza un impegno attivo alla giuda, portano inevitabilmente alla distrazione. Continuo a ritenere che siano dispositivi di morte...
...senza considerare un eventuale aggiornamento fallato che faccia reagire male dove prima reagiva bene e dove, quindi, il guidatore si fida.
Lavarsene le mani, come fa Tesla, è da assassini per profitto.
F,

non so esattamente su una tesla quale sia il limite per l'override di sicurezza, ma se l'auto decide di andare a destra, io ho le mani sul volante (come dovrei avere) e lo tengo fermo non credo che siano stati talmente scemi da permettere all'autopilota di vincere il mio comando manuale...

Esperienza personale su una Model S con il software di fine marzo 2016, con Autopilot inserito (mantenimento di corsia), in autostrada a 4 corsie: siamo nella seconda corsia da destra e stiamo superando (non sorpassando, quindi senza cambiare corsia) un camion. Il camion è un po' troppo vicino per i gusti del conducente (e in effetti lo era anche per i miei, anche se c'era margine), ma la Tesla non ha obiezioni. Il conducente muove il volante per spostarsi un po' più a sinistra e aumentare la distanza laterale rispetto al camion. Noto che il volante oppone brevissimamente resistenza ma poi cede l'autorità al conducente.

Il conducente ha detto "Lei non vuole", cosa che ha fatto sorridere tutti (molti conducenti di Tesla antropomorfizzano l'auto descrivendola come se fosse una bella donna dotata di una propria volontà), ma io e il conducente abbiamo pensato che in un'emergenza questa resistenza avrebbe allungato i tempi d'intervento. È anche vero che forse l'auto si sarebbe spostata da sola in anticipo se ci fosse stato uno spazio laterale minore.
F,

non so esattamente su una tesla quale sia il limite per l'override di sicurezza, ma se l'auto decide di andare a destra, io ho le mani sul volante (come dovrei avere) e lo tengo fermo non credo che siano stati talmente scemi da permettere all'autopilota di vincere il mio comando manuale...

Esperienza personale su una Model S con il software di fine marzo 2016, con Autopilot inserito (mantenimento di corsia), in autostrada a 4 corsie: siamo nella seconda corsia da destra e stiamo superando (non sorpassando, quindi senza cambiare corsia) un camion. Il camion è un po' troppo vicino per i gusti del conducente (e in effetti lo era anche per i miei, anche se c'era margine), ma la Tesla non ha obiezioni. Il conducente muove il volante per spostarsi un po' più a sinistra e aumentare la distanza laterale rispetto al camion. Noto che il volante oppone brevissimamente resistenza ma poi cede l'autorità al conducente.

Il conducente ha detto "Lei non vuole", cosa che ha fatto sorridere tutti (molti conducenti di Tesla antropomorfizzano l'auto descrivendola come se fosse una bella donna dotata di una propria volontà), ma io e il conducente abbiamo pensato che in un'emergenza questa resistenza avrebbe allungato i tempi d'intervento. È anche vero che forse l'auto si sarebbe spostata da sola in anticipo se ci fosse stato uno spazio laterale minore.
I dati per fare confronti sono insufficienti.

Sui veicoli bianchi: in certe condizioni di luce sono un incubo. Quando riconosco tali condizioni di luce preferisco perdere 4 minuti per avere il conforto di un semaforo, piuttosto che affrontare un incrocio privo di semaforo.
Paolo Alberton,
Circa il 25% di miglia percorse in più prima di incorrere in un incidente mortale non lo definirei lo stesso livello ;)

Se hai un solo evento a disposizione, un 25% di differenza è praticamente insignificante. Se ne hai 1000 il discorso cambia...
Fatevi quatto risate con questa descrizione dell'incidente:

link blizquotidiano

Secondo loro il conducente era seduto dietro e, secondo il conducente del tir, guardava... Harry Potter.

Va bene tutto, ma mi devono spiegare come faceva il conducente di un tir (che, se non ho capito male, non dovrebbe neanche aver visto l'auto arrivare) a vedere, ma soprattutto capire, cosa c'era sul touch screen della tesla.
Andy,

grazie per la segnalazione, l'ho aggiunta all'articolo.
Dispiace per la morte di una persona che inconsciamente faceva da cavia. Tuttavia trovo molto strano che un sistema di guida assistita permetta di superare I limiti di velocità previsti dalla legge. Esistono macchine tradizionali che sono limitate elettronicamente volutamente dai costruttori proprio per non dare la possibilità al guidatore di usarla come arma. Che un software ignori I limiti di velocità e cerchi di minimizzare le frenate anche quando si attraversano incroci pericolosi mi sembra molto azzardato oltre che illegale. Qualche ente di sicurezza stradale ha mai certificato il software Tesla? Al di la delle polemiche inevitabili e per non vanificare la morte di una persona io proporrei al sindaco di quella cittadina di mettersi in contatto coi sindaci leghisti della marca trevigiana che hanno debellato gli incroci pericolosi con una soluzione semplice, efficace e molto economica:la rotonda alla francese. Questa soluzione all'apparenza banale è anche democratica: tutti sono costretti a frenare, dal nonno novantenne al neopatentato spavaldo, dall'immigrato analfabeta senza patente al facoltoso entusiasta assistito da intelligenza artificiale. Le rotonde sono il test di Turing per gli autopiloti: quello che ridà I commandi al umano non verrà omologato alla circolazione su strade pubbliche.
Una considerazione sulla programmazione di A.I.

In generale quando un'intelligenza artificiale vede la "sconfitta" inevitabile, non prende alcuna contromisura, a meno che non sia espressamente programmata per farlo.

Le discussioni sul comportamento migliore da tenere nei casi in cui un incidente è inevitabile son concordi sul dire che a parte il "Cerca di non toccare i freni" nel caso la situazione sia causata da fondo ghiacciato, non esiste una procedura che sia valida in tutti i casi.

In quella situazione non si può dire che il pilota automatico abbia preso la decisione sbagliata, la decisione sbagliata è stata quella di tenere una simile velocità pur sapendo che un autoarticolato avrebbe potuto iniziare la manovra di svolta a sinistra prima di poter stabilire se l'altro veicolo potesse collidere.

Dal punto di vista dell'autoveicolo, possiamo dire che è ben comprensibile che l'A.I. non avesse motivo di "preoccuparsi" quando il camion ha cominciato la manovra (o forse lo ha "visto" dopo che è iniziata) e quando si è resa conto della presenza del camion fosse troppo tardi per effettuare una contromisura. Ma questo vale anche in caso di guidatore umano. A quelle velocità, quando premi i freni per disperazione, è difficile che vada a finir bene.
Unknown,

Dispiace per la morte di una persona che inconsciamente faceva da cavia

Non "inconsciamente". Chi accetta di usare Autopilot viene avvisato ripetutamente che si tratta di software BETA.


Tuttavia trovo molto strano che un sistema di guida assistita permetta di superare I limiti di velocità previsti dalla legge.

Perché? Può capitare che hai un'emergenza. Devi correre in ospedale con un ferito o una partoriente, oppure sei inseguito da malintenzionati.


Esistono macchine tradizionali che sono limitate elettronicamente volutamente dai costruttori proprio per non dare la possibilità al guidatore di usarla come arma

Citeresti qualche nome? E cosa intendi per "limitate"?


. Che un software ignori I limiti di velocità e cerchi di minimizzare le frenate anche quando si attraversano incroci pericolosi mi sembra molto azzardato oltre che illegale.

Mi sa che non hai capito il funzionamento dell'Autopilot. Ti invito a rileggere l'articolo e il manuale dell'Autopilot di Tesla.


Qualche ente di sicurezza stradale ha mai certificato il software Tesla?

Non mi risulta. Ma tieni presente che è software beta; non è detto che sia necessaria una certificazione. L'indagine dell'NHTSA dovrebbe chiarire eventuali colpe del software.


Al di la delle polemiche inevitabili e per non vanificare la morte di una persona io proporrei al sindaco di quella cittadina di mettersi in contatto coi sindaci leghisti della marca trevigiana che hanno debellato gli incroci pericolosi con una soluzione semplice, efficace e molto economica:la rotonda alla francese


Sei mai stato negli Stati Uniti, o peggio ancora in Florida? Hai visto come guidano? Molti americani che conosco vanno nel panico di fronte a una rotonda. A parte questo, concordo che le rotonde sono un ottimo sistema.
In situazioni di emergenza direi che è meglio lasciare disinserito l'autopilota. E se sei uno che non ha mai fatto un corso di guida sicura sportiva è molto meglio chiamare il 911/112 che mettersi a fare slalom tra le macchine a tutto gas perché hai un'emergenza.

Per quanto riguarda le macchine con limitazioni di velocità, avevo in mente le Mercedes/BMW che limitano la velocità massima a 250 km/h quando il motore può rendere ancora di più: https://it.answers.yahoo.com/question/index?qid=20070620055412AA1qMwI Ovviamente c'è il modo di togliere la limitazione e ovviamente c'è chi ha già caricato su youtube video con la bravata di andare a 300 su strade pubbliche invece che in pista.

Non sono mai stato in America, ma sono fiducioso che anche gli autisti americani possono farcela ad affrontare le rotonde senza stress.
@F,

grazie per il chiarimento sul pilota automatico degli aerei, non sapevo che si fosse evoluto a tali livelli.
Resto comunque dell'idea che il pilotare un aereo e il guidare una macchina siano modalità troppo lontane per poter essere paragonate. I fattori che ci fanno decidere una millimetrica correzione del volante o della velocità sono innumerevoli e continui (solo per fare qualche esempio: le altre vetture, le intersezioni nei loro vari tipi, le condizioni della strada, i mutamenti climatici, i cambiamenti di pendenza longitudinali o trasversali della strada, la valutazione degli ostacoli, ecc ecc). Le decisioni che noi umani prendiamo sono infinite, continue e molto complesse, e se si prendono in due anziché da soli il disastro è assicurato.

Riporto una mi aesperienza personale sul tema del controllo del volante: Qualche mese fa stavo facendo una curva a destra quando si è rotto improvvisamente il servosterzo. Il volante ovviamente si è indurito di colpo e io a fatica sono riuscito a mantenere l'auto in traiettoria, ma se ci fossero state condizioni meno favorevoli (tipo velocità più elevata, curva che si stringeva, fondo stradale non perfetto, ecc) sarei finito nell'altra corsia, con le conseguenìze del caso. Questo per dire che se il volante non è sempre gestibile completamente da me, senza anche leggere resistenze o forzature, non mi posso sentire più sicuro, anzi. Anche perché se l'Autopilot sterza con giusta ragione per evitare un ostacolo che io non ho visto, se ho (come dovrei) le mani sul volante, reagirò inizialmente mantenendolo in traiettoria, annullando quindi (se, come succede con gli aerei, basta una lievissima resistenza per riprenderne completamente il controllo) l'effetto utile. Vedo più favorevolmente la frenata automatica, perché frenare in caso di pericolo non è (quasi mai) un comportamento controproducente.
Pgc

Sì, hai ragione, ma l'evento singolo è un caso particolare. In proiezione statistica la differenza è consistente nella misura in cui ritieni consistente una percentuale del 25%.
@Paolo Alberton

Nein... il caso è avvenuto in condizioni di guida sconsiderata e irresponsabile.

Quando hai il sole alle spalle, nel regolare la tua velocità devi tener conto del fatto che sei poco visibile.
@Paolo Alberton

Provo a spiegarmi meglio: oltre una certa velocità, che ovviamente varia in base alla situazione, non c'è nessuna contromisura che sia di una qualsiasi utilità per salvare i danni, perchè la fisica stessa non la permette.

Una tonnellata che viaggia a tot km orari non può fermarsi in meno di f(tot) metri a meno che non si schianti contro qualcosa, anche immaginando che il comando al freno venga impresso in tempo 0 e che i servocomandi lo eseguano nel miglior modo possibile.
Se vai TROPPO veloce e qualcosa si para sulla tua traiettoria, puoi essere il campione galattico di ping-pong, ma i tuoi riflessi non cambiano niente al fatto che il tuo veicolo deve assogettarsi alle semplici leggi della fisica.
La prima modifica del software che farei è quella di disabilitare l'autopilot una volta superata la velocità massima consentita su strada, chiaramente con un minimo di tolleranza.
Altra cosa: è necessario pensare a come facilitare il lavoro alle auto a guida autonoma o assistita. Per esempio anche le auto tradizionali dovrebbero essere prodotte con apparecchi che inviino entro un certo raggio la loro posizione, la loro direzione di marcia e forse anche le dimensioni soprattutto per i mezzi più grandi.
@ Db Itfly:

Non sono mai stato in America, ma sono fiducioso che anche gli autisti americani possono farcela ad affrontare le rotonde senza stress.

appunto... non sei mai stato in america. e sei anche troppo fiducioso.
considera che l'accessorio più importante dell'auto per loro è il portabicchiere.
e non riescono a gestire manco tre pedali.


@puffolottiaccident:

Quando hai il sole alle spalle, nel regolare la tua velocità devi tener conto del fatto che sei poco visibile.

amen.
ma qua stiam parlando già di altissimi livelli.
la consapevolezza delle condizioni ambientali e di come possano limitare le reazioni di chi abbiamo intorno è zero anche in europa...
il che? il sole? sissì, aspe' che m'è arrivata un messaggino su whatsapp...


@Jotar:
due buone idee... 👍

Puffolotti

Che c'entro io! ;)
un buon motivo per non mettere software beta sul proprio pc o sulla propria auto...
A parte gli scherzi mi lascia un po' perplesso il fatto che si possa etichettare un sistema di guida assistito come BETA.
Un motore di ricerca può essere beta un programma che taglia musica può essere beta ma un sistema simile che fa una beta pubblica io non ce lo vedo.
Ok che il proprietario accetta l'EULA ma mi pare decisamente una forzatura, per quanto probabilmente tutte le case automobilistiche senza dircelo ci forniscano alcuni materiali in beta testing il sistema di guida rimane un qualcosa che non mi sembra normale fornire in BETA, che il guidatore ne sia cosciente oppure no.
leggendo ci sono alcune cose abbastanza oscure:

se ho capito bene il camionista non si è quasi accorto dell'impatto come avrebbe potuto vedere il conducente sul sedile posteriore e vedere che stava guardando Harry Potter ?

Diciamo che un incidente simile è anche provocato da quella follia che è fare un'autostrada con incroci a raso ed attraversamenti di carreggiata...però rimango dell'idea che rilasciare in beta un sistema di assitenza alla guida sia un po' un autogoal per sistemi simili.
Andrea,

il camionista ha udito l'audio di Harry Potter dopo l'incidente. Ho scritto infatti "accorso sul luogo dove si è fermata l’auto...".
ah ok avevo capito male
Del diavolo e dell'acqua santa

Ovvero "Dalle stelle alle stalle. E viceversa".
@F
per quanto mi riguarda la prima funzione di un autopilota da auto dovrebbe essere che se il cretino alla guida scende sotto la distanza di sicurezza da chi precede l'auto prende il comando, accosta, chiama i carabinieri e nell'attesa ti insulta con la sintesi vocale...
d'accordissimo ma a condizione che l'autopilot controlli anche la distanza laterale nei sorpassi. Tu non hai idea di quanta gente mi "faccia il pelo" quando sono in moto in superstrada e l'altra corsia e' perfettamente libera...