skip to main | skip to sidebar
156 commenti

Incidente mortale in Tesla, l’Autopilot era attivo ma il conducente non ha risposto ai suoi avvisi

Credit: NBC.

Ultimo aggiornamento: 2018/04/03 00:10.

Un incidente avvenuto a Mountain View, in California, nel quale ha perso la vita il conducente di una Tesla Model X, ha posto nuovi interrogativi sul sistema di guida assistita di Tesla, il cosiddetto Autopilot.

L’incidente, e soprattutto la conseguente indagine delle autorità statunitensi per la sicurezza dei trasporti (NTSB), è anche una delle ragioni della forte caduta (8%) delle azioni Tesla e del declassamento del credit rating di Tesla da parte di Moody. Le altre sono le lentezze, rispetto alle promesse di Elon Musk, nella produzione della Model 3 (il modello meno caro delle Tesla, che è in vendita ma col contagocce) e le conseguenti incertezze sull’indebitamento dell’azienda, nonché il richiamo di tutte le Model S, circa 123.000, per un possibile problema al servosterzo nei climi molto freddi. Insomma, è un momento difficile per Tesla.

Poche ore fa, dopo alcune incertezze iniziali, è emerso che al momento dell’incidente l‘Autopilot della Model X era attivo. Questo sembra indicare un difetto grave nel sistema di guida assistita che avrebbe ripercussioni enormi su Tesla e sulle circa 280.000 sue auto circolanti, oltre che sull’intero concetto di guida autonoma, già scosso dal recente incidente mortale di un’auto di Uber.

Ma è importante capire la dinamica di questo incidente prima di saltare a conclusioni affrettate.

Secondo il rapporto della California Highway Patrol, l’auto ha colpito frontalmente e di testa lo spartitraffico, si è incendiata ed è stata colpita da altre due auto. L’impatto è stato terribilmente violento perché lo spartitraffico non aveva più l’apposito attenuatore d’urto, che era andato distrutto in un altro incidente, nel quale aveva contribuito a salvare il conducente accartocciandosi come previsto e smorzando quindi l’impatto.

L’attenuatore d’urto nelle sue condizioni normali, visto da Google Street View.

L’attenuatore collassato com’era il giorno prima dell’incidente della Tesla.


Tesla ha dichiarato che secondo i dati dei sensori di bordo “negli istanti che hanno preceduto la collisione, avvenuta alle 9:27 del mattino venerdì 23 marzo, l’Autopilot era attivato, con la distanza di inseguimento del cruise control adattivo impostata al minimo” (la guida assistita dell’auto mantiene automaticamente la distanza dal veicolo che la precede, e questa distanza era impostata al valore minimo). Ma ha notato anche che “il conducente aveva ricevuto numerosi avvisi visivi e uno acustico di riprendere il controllo poco prima, durante la guida, e le mani del conducente non sono state rilevate sul volante per sei secondi prima della collisione. Il conducente ha avuto circa cinque secondi e 150 metri di visuale non ostruita dello spartitraffico in cemento con l’attenuatore d’urto collassato, ma le registrazioni del veicolo mostrano che non è stata intrapresa alcuna azione.”

In altre parole, sembra che si tratti ancora una volta di un caso di uso scorretto dell’Autopilot, che non è un sistema di guida automatica ma è solo un assistente di guida, nonostante il nome ingannevole e altisonante. Il conducente deve essere costantemente vigile e pronto a intervenire: tenere le mani sul volante, pronte ad agire, è indispensabile. Ma troppo spesso i conducenti di queste auto attribuiscono a questi sistemi capacità che assolutamente non hanno, si fidano troppo e iniziano a ignorare gli allarmi.

Nel contempo, sembra chiaro che il sistema di guida assistita non è stato in grado di gestire un ostacolo fermo sulla carreggiata e di interpretare correttamente la segnaletica orizzontale, e non è la prima volta che succede.

Secondo Ars Technica, che cita un servizio di ABC7, il conducente era un engineer (termine generico che non ha necessariamente il senso italiano di ingegnere) della Apple, di nome Walter Huang, in precedenza sviluppatore di videogiochi per la Electronic Arts. La famiglia di Huang dice che l’uomo aveva portato la sua Tesla dal concessionario lamentando problemi con l’Autopilot proprio su quel tratto di strada e ha presentato una fattura a riprova, ma Tesla dice di non avere traccia di queste visite.

Va detto anche che il tratto di strada è chiaramente pericoloso, visto che l’assorbitore d’urto era stato distrutto da una collisione precedente di un veicolo convenzionale. La questione di fondo, da valutare con cautela e delicatezza, è come mai il conducente non avesse le mani sul volante per vari secondi in un tratto di strada non lineare e complesso (per un sistema di guida assistita) e avesse l’Autopilot inserito nonostante avesse lamentato problemi con questo sistema proprio in quel pezzo di strada.

È importante sottolineare che l’informatizzazione delle auto, particolarmente spinta nelle Tesla e in altre marche, consente di avere dati tecnici che permettono di ricostruire gli eventi con precisione e (si spera) evitare altri eventi come questo. Senza questi dati, le cause di questo incidente mortale resterebbero probabilmente un mistero. Grazie a questi dati, fra l’altro, Tesla dichiara che sa che “i proprietari di Tesla hanno percorso quello stesso tratto autostradale con l’Autopilot inserito circa 85.000 volte da quando è stato introdotto l’Autopilot nel 2015 e circa 20.000 volte soltanto dall’inizio di quest’anno e non c’è mai stato nessun incidente di cui siamo a conoscenza. Ogni giorno su questo preciso tratto di strada ci sono oltre 200 passaggi in Autopilot compiuti con successo”. Dati che sono al tempo stesso preziosi ma anche rivelatori di quanto le auto iperconnesse siano anche ipersorvegliabili.


2018/04/02 15:00


Un video pubblicato da poco su Youtube mostra un conducente Tesla che passa dal tratto di strada nel quale è avvenuto l’incidente e lo fa con l’Autopilot attivato e ignorandone gli avvisi, ricreando quindi condizioni simili a quelle dell’incidente, e quasi si schianta perché l’Autopilot si confonde sulla segnaletica orizzontale.


Questo tipo di esperimenti è molto pericoloso e non va incoraggiato, ma mostra piuttosto inequivocabilmente che l’Autopilot di Tesla ha problemi a riconoscere le strisce di delimitazione di corsia in queste condizioni.

Va detto, tuttavia, che non è ancora chiaro quale versione di hardware e software fosse usata dalla Tesla di Huang. Non tutte le Tesla, infatti, hanno lo stesso hardware e software di gestione dell’Autopilot.



2018/04/03 00:10


Un altro video girato nello stesso luogo spiega altri dettagli, precisando che è stato ripreso usando una Tesla Model 3 con hardware Autopilot 2.5 e firmware 2018.4.9: l’auto si comporta correttamente, ma nel video si nota che le strisce bianche che dividono le due carreggiate divergono tanto da formare due linee quasi parallele e spaziate quasi quanto una corsia (lo spazio triangolare fra queste due strisce non è contrassegnato come area da non occupare, come avviene invece nelle strade europee). Se l'Autopilot interpreta queste due righe come dei delimitatori di corsia, allora porta l’auto dritta contro lo spartitraffico. Ma in tal caso resta da capire come mai non si sia attivata la frenata automatica anticollisione.


L’autore del video nota che ha percorso quel tratto di strada con un Autopilot per circa due anni e l’auto ha sbagliato a interpretare la segnaletica orizzontale una o due volte, andando quasi a colpire l’attenuatore.

Il canale televisivo ABC 7 è tornato sul luogo dell’incidente con una Tesla Model X. Nel video qui sotto viene citata una dichiarazione secondo la quale Huang aveva segnalato che “sette volte su dieci” la sua auto in quel punto sterzava verso l’attenuatore. Questo rende ancora meno comprensibile la scelta di Huang di usare l’Autopilot e ignorare gli allarmi proprio in quel punto anche il giorno dell’incidente mortale.

Il conducente, nel video di ABC 7, ribadisce molto chiaramente che non bisogna togliere le mani dal volante e bisogna restare sempre pronti a intervenire. Cita anche alcuni errori del sistema di guida assistita, come un’auto fantasma rilevata dai sensori, tanto da far frenare automaticamente la Tesla.



Fonti aggiuntive: Electrek, Teslarati. Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Invia un commento
I commenti non appaiono subito, devono essere tutti approvati manualmente da un moderatore a sua discrezione: è scomodo, ma è necessario per mantenere la qualità dei commenti e tenere a bada scocciatori, spammer, troll e stupidi.
Inviando un commento date il vostro consenso alla sua pubblicazione, qui e/o altrove.
Maggiori informazioni riguardanti regole e utilizzo dei commenti sono reperibili nella sezione apposita.
NOTA BENE. L'area sottostante per l'invio dei commenti non è contenuta in questa pagina ma è un iframe, cioè una finestra su una pagina di Blogger esterna a questo blog. Ciò significa che dovete assicurarvi che non venga bloccata da estensioni del vostro browser (tipo quelle che eliminano le pubblicità) e/o da altri programmi di protezione antimalware (tipo Kaspersky). Inoltre è necessario che sia permesso accettare i cookie da terze parti (informativa sulla privacy a riguardo).
Commenti
Commenti (156)
Giusto. Ma non ho notato nessun articolo sull' incidente precedente Nello stesso punto che aveva distrutto l'ammortizzatore della barriera in cemento. Forse non era una Tesla e quindi nessuno è interessato a parlarne per secondi motivi, viste le migliaia di morti sulle strade ogni anno di cui nessuno parla.
Finalmente un resoconto dettagliato e preciso dell'accaduto, tra l'altro il bell'incedere della scrittura dona una chiarezza espositiva cristallina. Mi preme sottolineare un aspetto di tale notizia: la percezione dell'uomo comune si interroga soprattutto su come si sia scatenato l'incendio, giacché l'impatto in sé spaventa poco (anche le automobili ordinarie sono associate a eventi mortali); certo sollevare la guida assistita dall'aver contribuito all'incidente è fondamentale per spogliare l'esperienza in auto elettrica di ogni alone di avventurismo e rischio non calcolato. D'altro canto, l'uomo comune si chiede anche: se compro un'auto elettrica, si incendia più facilmente in caso di incidente? Per quanto sia una paura infondata tra molte, potrebbe essere utile disinnescarla.
Urge una presa di coscienza di Tesla e Musk.
Non è più possibile cavalcare e spingere questo fraintendimento per cui ste macchine hanno il pilota automatico.

E non è più possibile invogliare l'utenza a fare da beta-tester riducendo gli avvisi di attenzione rispetto alla concorrenza.
Ricorda molto la dinamica dell'incidente Dell'Air France 747 (https://en.m.wikipedia.org/wiki/Air_France_Flight_447#Accident).
Per una maggiore consapevolezza del problema, però, non parlerei di un "uso scorretto dell'autopilot" (variazione del "blame the driver", bensì di un'altra vittima dell'automation bias.
Se non voglio guidare prendo un taxi, il treno oppure...mi arrangio con le tecniche di comunicazione a distanza ed evito gli spostamenti.

È il termine stesso "autopilot" ad essere ingannevole.

Guida assistita significa che il pilota è alla guida(ed ha il "comando" del veicolo.

I sistemi di sicurezza ABS, ASR (controllo di trazione), ESP (controllo di stabilità), FCW (forward collision warning), LDW (lane departure warning), per citare i più comuni, sono utili se intervengono per correggere errori del guidatore, non per sostituirsi a lui (lasciandogli la responsabilità dei sinistri).

il concetto Tesla di guida assistita a mio avviso va ribaltato

NB senza cappottare le macchine in strada -:)
La "guida assistita" in stile Tesla è troppo ambigua e soggetta a fraintendimenti.
Che sia chiaro, ogni giorno avvengono incidenti d'auto e nessuno ne discute in questa maniera, ma i nuovi sistemi debbono aggiungere sicurezza e non ulteriori elementi di pericolosità.
Premetto di essere un ex Pilota professionista che ha volato per 38 anni prima in AM e poi in Alitalia. Il Pilota Automatico, anche nel mondo aeronautico, non prevede che il controllo delle prestazioni del velivolo sia tolto al Pilota Umano. Ci sono delle precise limitazioni che stabiliscono entro quali parametri il Pilota Automatico può essere utilizzato e quando deve essere "sganciato" e comunque un Pilota Umano DEVE sempre e continuatamente controllare l'operato del Pilota Automatico ed eventualmente intervenire escludendolo e riprendendo il controllo manuale del velivolo.
Pensare di "lasciar fare" al "Pilota Automatico" di una Tesla ciò che vuole senza lo stretto controllo dell'autista è semplicemente folle.
Al di là della semantica, la distanza d'allarme al minimo lascia intravedere uno spiraglio all'avvocato che certamente farà causa a Tesla.
Ovvero, il falso positivo: quanti e quali allarmi "inutili" ha prodotto il Autopilot?
È adeguata la differenza tra allarme foglie umide su strada rispetto a pilone di cemento dritto di fronte?
@Tutti coloro che lamentano l'ambiguità del termine "autopilot".

Non è così. Il termine autopilot, o autopilota, o pilota automatico che dir si voglia non è affatto ambiguo, dato che è sempre stato unicamente un sussidio alla guida. Chi pilota un aereo lo sa, così come lo sa chi pilota una nave.
Non vedo perché dovrebbe essere differente per chi pilota un auto, considerando che nel manuale a corredo dell'auto è chiaramente spiegata la funzione dell'autopilota (che non è quella di guidare la macchina autonomamente).

Probabilmente chi non pilota un aereo o una nave non lo sa e può confondersi, ma chi acquista una macchina dotata di quel dispositivo e legge il manuale non ha questa scusante.

Eh sì, non è un buon momento per Tesla: qualche giorno fa ha annunciato il richiamo di 123000 Model S costruite prima di aprile 2016 perchè hanno riscontrato un'eccessiva corrosione nei bulloni dello sterzo per le vetture che operano in climi particolarmente freddi, per via del sale che viene sparso sulle strade. Va detto che questo non ha ripercussioni sulla sicurezza, rende solamente più duro lo sterzo in fase di parcheggio e a basse velocità, inoltre Tesla ha richiamato anche le vetture che non operano in climi rigidi.
Chi grida all' 'irresponsabilità' di Tesla, chiede la disattivazione di AutoPilot perché 'il nome è ingannevole e compromette la sicurezza' dovrebbe fare i conti con la realtà, invece che affidarsi a facili congetture:

1- Il nome non c'entra niente, il sistema stesso spiega chiaramente e più volte all'utente le sue limitazioni, lo incoraggia attivamente e continuamente a mantenere l'attenzione e qualsiasi persona che lo usi per più di qualche minuto capisce rapidamente i suoi limiti. Tant'è che in questo caso la vittima è un INGEGNERE DI APPLE, ben conscio dei limiti del sistema, anche dal punto di vista tecnico. Il dibattito sul nome è infondato e insensato: potrebbe chiamarsi anche 'guida autonoma infallibile', ma l'utente giudicherà sempre l'affidabilità del sistema in base alla sua esperienza reale, non al nome.

2- IL SISTEMA È SICURO, così com'e. I DATI dicono che le Tesla dotate di Autopilot sono soggette in media a meno incidenti di quelle che ne sono sprovviste. Questa è la realtà, non congettura. L'abilitazione del sistema, seppur non infallibile (e non lo sarà MAI), è più sicura della sua assenza. Disattivarlo sarebbe insensato e moralmente sbagliato.
L'unica cosa sensata è tenerlo attivo e continuare a migliorarlo, anche imparando da incidenti come questo.
Se chiami una cosa "autopilot", incredibilmente la gente penserà che è un "autopilot" anche se non lo è.

Da questa incomprensione nascono gli incidenti. Ho una ioniq con lkas e smart Cruise control. Ti tiene in corsia (quasi sempre) e ti tiene distante dall'auto davanti (quasi sempre). E si lamenta veemente se togli le mani dal volante.

Se permetti all'autista di lasciare il volante, questo lo farà e sarà inevitabilmente disattento.
Paolo, trovo interessante il tuo ultimo commento: la necessita' di raccogliere una moltitudine di dati per supportare le decisioni del sistema automatico portano come beneficio secondario la possibilita' di ricostruire in modo estremamente dettagliato la dinamica degli eventi in caso di incidente.

Mi fa pensare all'installazione di una scatola nera di progettazione aeronautica sulle vetture :-)

Sarebbe interessante se questo tipo di sensoristica fosse installata anche sulle auto tradizionali...
Sul tema "non concentriamoci solo sul tema giuda assistita", mi chiedo per quanto tempo l'ammortizzatore sia rimasto danneggiato.
Una possibile ricostruzione della causa dell’errore dell’Autopilot:
https://m.youtube.com/watch?v=tvH7Z5bxBM0&feature=youtu.be
Continuo ad essere convinto che gli ausili alla guida NON debbano arrivare a permettere di levare le mani dal volante.
Un ausilio troppo spinto può, secondo me, aumentare i casi di guidatori distratti e di "colpi di sonno", ed è quest'ultimo che penso sia avvenuto sia qui che nell'incidente del camion. Questo spiegherebbe anche la non risposta dei guidatori agli avvisi.
Inoltre, gli ausili devono essere "punitivi" per chi li fa intervenire, in modo da obbligare a non abusarne (tanto, se mi viene il colpo di sonno, interviene la macchina). Solo così aumenterà la sicurezza sulle strade, sommando le sicurezze umane ed automatiche.
Bah, io continuo a pensare che l'unica "guida assisita" che dovrebbe essere sviluppata ed utilizzata è quella che fornisce aiuti alle azioni del conducente, che però deve sempre essere completamente attivo nel controllo del mezzo.
Ad esempio ben vengano i vari ABS, ESP, l'anticollisione a bassa velocità, l'avvertimento del superamente carreggiata, ecc.

Sono completamente contrario invece a tutto quello che permette(rebbe) al pilota di "rilassare" l'attenzione.

"Il conducente deve essere costantemente vigile e pronto a intervenire" a mio parere è una idiozia pazzesca, perchè è impossibile, se non si è impegnati in prima persona in qualcosa, mantenere l'attenzione "pronta e vigile".

Ma vi sembrerebbe realistico uno scenario in cui viaggio per 4 ore su di una highway usa (ma anche un paio d'ore in pianura padana..) senza mani sul volante, e rimango "vigile e pronto" ad intervenire se un coyote (o un capriolo) mi attraversa la strada ?
Il termine autopilot, o autopilota, o pilota automatico che dir si voglia non è affatto ambiguo, dato che è sempre stato unicamente un sussidio alla guida. Chi pilota un aereo lo sa, così come lo sa chi pilota una nave.

Un termine che ha un certo significato per i tecnici può suggerirne un altro per i non tecnici.
Quindi, il termine che si può fraintendere deve essere progettato per essere frainteso nel senso della maggior sicurezza, non nel senso della minore.
@Lampo13.

In ambito areonautico ci sono i controllori di volo, radar, collegamenti radio.

Su strada no.

Ben vengano gli ausilii alla guida.

È...pericoloso (se non temerario) consentire le sperimentazioni di "guida autonoma" su strada aperta al traffico dei normali automobilisti/ciclisti e pedoni.



Non mi sembra appropriato il...parallelismo "autopilota" Tesla/pilota automatico in volo



Secondo me il nome autopilot è accettabile,veramente pilota da solo, chi lo usa deve leggere il manuale e conoscerne i limiti, farsi ingannare dal nome mi pare esagerato.

Le strade si sono "evolute" per gli umani, forse bisogna cominciare a considerare che la segnaletica deve essere chiara anche per i robot.
@martinobri

"Un termine che ha un certo significato per i tecnici può suggerirne un altro per i non tecnici."

E' vero, ma questo vale (come ho scritto) per chi non adopera tale strumento. Nel momento in cui ci si trova a doverlo adoperare, si viene a conoscenza del significato effettivo ed ogni possibile fraintendimento decade.

Il manuale della Model X è parecchio esplicito su cosa l'autopilota può fare o meno, e del modo corretto per adoperarlo. E va letto per forza per comprendere come attivare le varie funzioni. Quindi è davvero difficile ipotizzare che chi guida una macchina dotata di sistema di assistenza alla guida possa essere stato tratto in inganno dal termine "autopilota".

Per riferimenti :
https://www.tesla.com/sites/default/files/model_x_owners_manual_europe_it_it.pdf
Pagina 106

La questione dell'errata comprensione del termine è a mio avviso fuorviante. E' probabilmente vero che può venire frainteso da chi non ha accesso a mezzi dotati di tale strumento, ma per lo stesso identico motivo chi fraintende il termine non ha conseguenze di sorta, dato che è evidente che non ha accesso a questi mezzi.
Nel momento in cui si ha accesso a mezzi dotati di autopilota, si impara anche cosa vuole dire esattamente il termine e di conseguenza la possibilità di fraintendimento decade completamente.
Io semplicemente penso che l'unico autopilot da sviluppare sarebbe un utilizzatore dell'auto che sia consapevole di avere in mano un oggetto pericoloso e quindi di utilizzarlo con cognizione di causa, chi non riesce prenda il taxi o il bus.
La licenza di guida dovrebbe essere un premio non un diritto.
É coai difficile per tesla fare in modo che l'auto rallenti e accosti a destra quando il pilota non fa il suo dovere e per esempio si addormenta invece di lanciare allarmi inutili? Io vorrei in'auto con autopilota che se sto male o ho un colpo di sonno, invece di cercare inutilmente di ravegliarmi mentre va a sbattere a 100 all'ora contro un paracarro, si fermasse a destra e magari chiamasse pure i soccorsi.. mi sa che gli ingengneri di Tesla hanno trascurato un caso quando hanno progettato il loro sistema... e lo dico da ingegnere...
Spero di non fare una domanda stupida, ma come ha fatto l'auto a incendiarsi?

Non c'è carburante, né tantomeno motori e scarichi roventi che possano incendiarli; anche ammettendo che l'urto abbia scatenato una cascata di scintille tra carrozzeria e spartitraffico, cos'è che può prendere fuoco in questi casi?
La verità è che il sistema Tesla non è superiore a quello di tanti altri costruttori, che però non strombazzano ai quattro venti che loro hanno un "Autopilota". Inoltre è gravissimo che il sistema Tesla non riesca a riconoscere gli elementi fermi (cioè quelli che hanno una velocità relativa rispetto alla velocità di avanzamento della vettura pari a zero). Tempo fa lessi che questi elementi venivano ignorati. Infatti su youtube si vede almento un'altra Model S che centra un ostacolo fisso in autostrada, posto sulla sinistra. Dovrebbero vergognarsi di aver pubblicizzato così il "loro" (dico "loro" perchè era di un'azienda israeliana, come ben sappiamo)sistema di assistenza alla guida.
@Templaro
-è impossibile, se non si è impegnati in prima persona in qualcosa, mantenere l'attenzione "pronta e vigile"-

Sono totalmente d'accordo, anche se ora la percentuale di incidenti di auto Tesla è basso, l'allargamento della base clienti e la confidenza sempre maggiore con il
mezzo non rischia di causare un incremento di eventi negativi?
Tommy,

cos'è che può prendere fuoco in questi casi?

La batteria.

Dimostrazione: https://www.youtube.com/watch?v=HCGtRgBUHX8

Le auto elettriche hanno barriere tagliafuoco, sezionatori e altro per ridurre questo rischio. Ma non lo eliminano.
Andrea,

É coai difficile per tesla fare in modo che l'auto rallenti e accosti a destra

Regola numero uno dei commenti: se non sei un esperto del settore specifico, non dire agli esperti quanto sarebbe "facile" il loro lavoro.

Esempio: programmi la macchina per farla accostare a destra. Facile, no?

Piccolo problema: l'auto è in Inghilterra, e quindi si ferma in corsia di sorpasso. O contromano.

Magari non ci avevi pensato, e così il tuo automobilista è morto.

Ti sembra ancora così "facile"? :-)
A proposito di mani sul volante: l'unica Tesla su cui sono mai salito (come passeggero) avvisava prima, e accostava poi, se l'autista mollava il volante per più di un certo tempo: mi pare cinque minuti.
...oppure l'autista si è addormentato?
[quote-"AndreaG"-"/2018/03/incidente-mortale-in-tesla-lautopilot.html#c8022195209152666503"]
@Lampo13.

In ambito areonautico ci sono i controllori di volo, radar, collegamenti radio.

Su strada no.

Ben vengano gli ausilii alla guida.

È...pericoloso (se non temerario) consentire le sperimentazioni di "guida autonoma" su strada aperta al traffico dei normali automobilisti/ciclisti e pedoni.



Non mi sembra appropriato il...parallelismo "autopilota" Tesla/pilota automatico in volo




[/quote]
Beh, la parola auto pilota è nata nel mondo aeronautico, l'autopilota viene utilizzato per il 99,9% del tempo di volo, i Piloti sono addestrati ad usarlo, ne conoscono tutti i limiti, eppure nemmeno in quest'ambito è permesso lasciarlo lavorare senza un continuo e positivo controllo da parte dell'essere umano. Figurati se può far da solo in ambito automotive!
@Tharon

E' vero, ma questo vale (come ho scritto) per chi non adopera tale strumento. Nel momento in cui ci si trova a doverlo adoperare, si viene a conoscenza del significato effettivo ed ogni possibile fraintendimento decade.

Questo sguardo un po' coi paraocchi è perfetto per evitare grane legali, non per evitare incidenti stradali.

Martinobri ha ragione. Se usi la psicologia per vendere più auto, poi magari quelli che la comprano usano l'auto come tu venditore hai insegnato loro a considerarla.

E Musk (o Tesla, se preferisci stare meno sulle figure retoriche) VIVE di hype e roboanti dichiarazioni, conosce benissimo gli effetti delle strategie e delle tattiche che usa.
Solo che per una tesla non è difficile sapere che si trova in Inghilterra o dove.... Quindi accorgerebbe a sinistra...
> Piccolo problema: l'auto è in Inghilterra, e quindi si ferma in corsia di sorpasso. > O contromano.
> Magari non ci avevi pensato, e così il tuo automobilista è morto.
> Ti sembra ancora così "facile"? :-)
Per una Tesla sapere di essere in Inghilterra non dovrebbe proprio essere un problema.
@Andrea.

In verità, lo fa di già ;)
Ovviamente non accosta (potrebbe essere altrettanto pericoloso che continuare ad andare dritti) ma se l'autista non ha le mani sul volante l'auto inizia a frantumare i cosiddetti con allarmi audio, dopodiché rallenta progressivamente il mezzo sino a fermarlo del tutto. Inoltre disabilita la guida assistita per tutto il resto del tragitto.

https://www.youtube.com/watch?v=R_jcl0Lk-1w
@Paolo
Sapevo che prendessero fuoco in caso di sovraccarica come nel video, ma non vedevo il nesso con l'urto.

La tua risposta però mi ha dato il La e mi ha fatto ragionare: cosa succede quando si rompe l'involucro della batteria di un telefonino? Perde idrogeno, che reagisce molto violentemente con l'ossigeno dell'aria.

Immagino che per le Tesla sia lo stesso; dico bene o è un ragionamento sbagliato?
@Andrea:
É coai difficile per tesla fare in modo che l'auto rallenti e accosti a destra quando il pilota non fa il suo dovere e per esempio si addormenta invece di lanciare allarmi inutili?
Tolti i limiti tecnici che già ti hanno fatto notare, secondo me sarebbe un suicidio commerciale. Il ragionamento di quasi tutti sarebbe "se devo stare sempre attento come quando guido, che senso ha comprarsi quest'auto?".

O almeno, questa è l'obiezione-tipo che sento ogni volta che ho avuto discussioni sul cruise control abbinato ai sistemi di frenata automatica anticollisione. Io sostengo che comunque si debba tenere i piedi in zona pedali (meglio ancora SUI pedali) e rimanere vigili, ma la gente mi risponde "ma così che senso ha? io l'ho comprata apposta per potermi distrarre un po' in autostrada" e simili.
@ Appassionato

"La verità è che il sistema Tesla non è superiore a quello di tanti altri costruttori"

La maggior parte delle testate automobilistiche che hanno paragonato questi sistemi di guida assistita dicono il contrario. L'unico che è stato definito capace come (e in casi anche più capace) quello di Tesla, è il Super Cruise di Cadillac/GM, che però è utilizzabile solo in una frazione delle strade paragonate, e solo in un paese (negli USA). Non che questo sia un difetto, visto che forse sarebbe meglio restringere l'uso di questi sistemi solo su strade testate e approvate per tale uso.

"Inoltre è gravissimo che il sistema Tesla non riesca a riconoscere gli elementi fermi[...]Tempo fa lessi che questi elementi venivano ignorati"

No, gli elementi fermi vengono ignorati dal radar (uno dei sensori di Autopilot), non dall'intero sistema (dotato anche di 8 telecamere e 12 sensori ultrasonici) Esattamente come per i radar di molte altre piattaforme di guida assistita, e per dei motivi abbastanza semplici: https://www.wired.com/story/tesla-autopilot-why-crash-radar/

"Dovrebbero vergognarsi di aver pubblicizzato così il "loro" (dico "loro" perchè era di un'azienda israeliana, come ben sappiamo)sistema di assistenza alla guida"

Le Tesla non hanno il sistema Mobileye (quello "di un'azienda israeliana") fin dall'Ottobre del 2016. Sarebbe opportuno informarsi per evitare errori cosi grossolani.
Tommy,

Immagino che per le Tesla sia lo stesso; dico bene o è un ragionamento sbagliato?

Qualche info:

https://electrek.co/2016/12/19/tesla-fire-powerpack-test-safety/

http://www.ebax.si/moto-akumulator/moto%20akumulator%20Tesla.pdf (riferito alla "vecchia" Roadster)
Lanf,

Per una Tesla sapere di essere in Inghilterra non dovrebbe proprio essere un problema.

Solo se l'ingegnere che fa tutto facile si è ricordato di considerare questo caso particolare e ha scritto la routine che controlla la geolocalizzazione. E lo ha fatto tenendo conto anche degli altri casi ben poco ovvi e intuitivi.

Senza andare a googlare: quali paesi europei hanno la guida a sinistra?

E questo è solo un esempio dei tanti casi per cui fare la guida autonoma è tutt'altro che facile.

Mi correggo: aeronautico, non areonautico.


Peccato che un errore di programmazione del sistema di guida autonoma non sia così...privo di conseguenze
Piccolo problema: l'auto è in Inghilterra, e quindi si ferma in corsia di sorpasso. O contromano.


Una Tesla saprà che si trova in Inghilterra, lo sa anche il TomTom
"Solo se l'ingegnere che fa tutto facile si è ricordato di considerare questo caso particolare e ha scritto la routine che controlla la geolocalizzazione. E lo ha fatto tenendo conto anche degli altri casi ben poco ovvi e intuitivi."

Quindi l'autopilot non ha cognizione del senso di marcia in ogni momento? Come fa a gestire incroci, rotonde, sorpassi, lavori e/o deviazioni, parcheggi? Spero vivamente che il fatto di non poter accostare sia per scelta e non per "difficoltà di progetto", rallenta e accosta non penso sia più difficile di quello che gli abbiamo visto fare.

Si sa come mai l'autopilot avesse chiesto all'autista di riprendere il controllo? Che problemi aveva rilevato?

Grazie
@Paolo:
Molto istruttivo, grazie!
Questo tipo di ausili sono solo pericolosi, abbassano lo stato di allerta del guidatore, é inevitabile. Prova a giocare a pallavolo con i compagni di squadra che urlano mia e, quando non ce la fanno, dicono: "tua!" La palla finisce per terra. La guida è completamente automatica oppure no. La via di mezzo genera questi incidenti. Non bisogna scordarsi il livello dell'utente medio, ma in generale tutti prima o poi ci cascano e si affidano a questi semi-automatismi. La guida autonoma vera e propria sará possibile solo quando tutti i veicoli circolanti sarranno autopilotati, nel frattempo le auto potranno imparare, dotate degli opportuni sistemi, come gli esseri umani intervengono nelle sitazioni ambigue. In questo modo il software potrá "imparare" come comportarsi.
Senza andare a googlare: quali paesi europei hanno la guida a sinistra?

....e quanti nel mondo, o la tesla è venduta solo in Europa?
@SirEdward

L'incidente è occorso ad un ingegnere della Apple, quindi non certo ad un automobilista poco avvezzo alle questioni tecniche. E' quindi lecito presupporre che fosse perfettamente consapevole dei limiti dell'autopilota, così come era perfettamente consapevole (ipotizzabile dal suo livello di istruzione e dal lavoro svolto) che la definizione "autopilota" non stesse a significare "macchina autonoma". Questo può pensarlo il tipico automobilista della domenica, e non certo un ingegnere della Apple che acquista una macchina altamente informatizzata.

E non è tutto. Se quanto raccontato dai familiari corrisponde a verità, lui stesso in precedenza aveva lamentato un comportamento anomalo del sistema di sterzata assistita proprio nel tratto di strada in cui poi ha perso la vita.

Qui la questione del fraintendimento sul termine "autopilot" non c'entra nulla. La vittima dell'incidente non solo era perfettamente consapevole del funzionamento dell'autopilota, ma anche conscio delle problematiche legate a quel particolare tratto di strada.
Nonostante questo non solo non ha disattivato la sterzata assistita, ma ha persino volutamente rimosso le mani da volante (nonostante gli avvisi audio) proprio nel punto in cui aveva riscontrato delle anomalie, e con tutta probabilità non stava guardando neppure la strada o si sarebbe accorto del cambio di corsia intrapreso dall'automobile.
Se questo non è classificabile come "errore umano", allora non so proprio cosa altro lo sia.

Possiamo disquisire quanto vogliamo di sicurezza, di terminologia e di avanzamento tecnologico, ma nessun computer o algoritmo per quanto sofisticato potrà mai impedire ad un essere umano di comportarsi in maniera poco assennata (o fatalmente stupida).
Nel momento in cui si ha accesso a mezzi dotati di autopilota, si impara anche cosa vuole dire esattamente il termine e di conseguenza la possibilità di fraintendimento decade completamente.

??
Per avere accesso ai mezzi dotati di autopilota basta pagare. Ti compri la macchina e parti; nessuno controlla se hai letto il manuale o/e se sei stupido.
@Martinobri.

Per avere accesso ai mezzi dotati di autopilota basta pagare. Ti compri la macchina e parti; nessuno controlla se hai letto il manuale o/e se sei stupido.

No perché le funzioni di assistenza alla guida sono disattivate di default e vanno impostate dalle opzioni del computer di bordo. Inoltre la sterzata assistita va attivata manualmente tramite una sequenza di movimenti illustrati appunto nel manuale della vettura.
E il manuale è letteralmente infarcito di avvertenze riguardo il funzionamento di queste funzioni, ed i pericoli correlati.

Detto questo, chi si mette alla guida di una qualsiasi vettura senza sapere cosa sta facendo è a prescindere stupido e rappresenta un potenziale pericolo sia per se stesso che per il prossimo. Che si tratti di una Tesla o di una Panda.
Anzi, forse è meglio uno stupido con la Tesla. Almeno la Tesla limita la velocità automaticamente durante la guida assistita, e grazie al Side Collision Avoidance limita la possibilità di buttare fuori strada qualche malcapitato ciclista o andare ad impattare con un'altra vettura per una manovra azzardata. Uno stupido con una Panda è una mina vagante. (Chiaramente parlo a "parità" di livello di stupidità, fermo restando che uno stupido al volante è sempre un pericolo).
@Lampo 13
"I piloti (aeronautici) sono addestrati ad usare l"autopilota ecc..."

Questo a riprova della pericolosità del sistema Tesla

La patente di guida (automobilistica) non è subordinata a prova di uso dell'autopilota, anzi -per i rinnovi- basta superare un esame medico e non un test teorico/pratico (in Italia c'è almeno il controllo della vista, udito, riflrssi ecc... Altri Stati non prevedono neppure questo)

Sempre in ambito aeronautico i controllo teorico/pratici ci sono eccome e basta poco per finire...a terra

Anni or sono circolava in rete l'audio (non so se manipolato) di un bel tipo che, mentre discuteva del ritardo con cui una Compagnia sicula gli pagava lo stipendio, è atterrato "lungo" a Punta Raisi. Spero proprio che nessuno -inconsapevolmente- gli abbia più affidato la pelle
protomucca,

Quindi l'autopilot non ha cognizione del senso di marcia in ogni momento?

No, l'Autopilot di Tesla lo sa. Lo sa perché gli sviluppatori del software hanno pensato ai vari casi possibili e deciso che sapere dove sei (tramite GPS) è ovviamente necessario per la guida autonoma. Sto solo facendo un esempio delle difficoltà progettuali e dei casi imprevisti e poco prevedibili, che un commentatore ha invece descritto come facili.


Si sa come mai l'autopilot avesse chiesto all'autista di riprendere il controllo? Che problemi aveva rilevato?

Al momento, che io sappia, no.
Turi,

Una Tesla saprà che si trova in Inghilterra, lo sa anche il TomTom

Ovviamente. Stavo facendo un esempio teorico.
Per la cronaca, il fraintendimento delle funzioni del cosiddetto "pilota automatico" (che nel caso specifico è un semplice cruise control) è al centro di una delle scene più riuscite del film "Darwin Awards" :https://www.youtube.com/watch?v=jkzzvRfzigw
Le batterie bruciano benissimo: durante le riprese di un episodio dello show "the Grand tour" Richard Hammond perde il controllo della supercar elettrica che stava pilotando ribaltandosi in un prato. Le batterie agli ioni di litio sono bruciate per 36 ore. Fortunatamente il pilota si é "solo" rotto una gamba..
"Per la cronaca, il fraintendimento delle funzioni del cosiddetto "pilota automatico" (che nel caso specifico è un semplice cruise control)"

Mi sembra esagerato definire l'autopilota Tesla "un semplice cruise control". Controlla la direzione, permette sorpassi e in teoria di andare da un punto A ad no B senza alcun intervento diretto.

Un "cruise control" controlla la velocità di crociera. Non a caso sulle auto che hanno controllo di distanza e corsia questi vanno attivati separatamente.
Di fondo mi rimane un dubbio.
Premesso che ormai auto con "guida assistita" o "autopilot" tra tesla e varie sperimentazioni ne circolano svariate decine di migliaia, quale è il tasso di "incidenti/km percorsi" ? e il tasso di "morti/km percorsi" ?
Perché nel medesimo periodo di tempo presumo che il tasso di incidenti di auto SENZA autopilot o simili non sia proprio zero, visto che di morti sulle strade se ne contano a migliaia ogni anno solo in italia...
In definitiva: ok, incidente mortale, da analizzare e capire per migliorare, ma non buttiamo via l'acqua sporca insieme al bambino... ma per il giornalismo a caccia perenne di "notizia clamorosa" fa molta scena (e clickbaiting) parlare dei problemi di auto così innovative; del resto ogni tot mesi si torna a parlare delle "stragi del sabato sera" (che in realtà, più o meno, avvengono sempre ma "non fanno notizia")
@pgc : il caso specifico a cui mi riferisco è quello del film!
MarcoT,

Premesso che ormai auto con "guida assistita" o "autopilot" tra tesla e varie sperimentazioni ne circolano svariate decine di migliaia, quale è il tasso di "incidenti/km percorsi" ? e il tasso di "morti/km percorsi" ?

Secondo questo comunicato di Tesla dedicato proprio all'incidente: "In the US, there is one automotive fatality every 86 million miles across all vehicles from all manufacturers. For Tesla, there is one fatality, including known pedestrian fatalities, every 320 million miles in vehicles equipped with Autopilot hardware. If you are driving a Tesla equipped with Autopilot hardware, you are 3.7 times less likely to be involved in a fatal accident...There are about 1.25 million automotive deaths worldwide. If the current safety level of a Tesla vehicle were to be applied, it would mean about 900,000 lives saved per year."
Secondo me il problema non e tanto il nome (Autopilot) o la funzionalità in sé. Il problema è piuttosto nella cattiva abitudine che chiunque può prendere quando una cosa ha sempre funzionato bene. Cioè, io passo un anno a guidare la Tesla con le mani sul volante, non è mai successo niente perché io sia dovuto intervenire, è naturale che il mio livello di guardia si abbassa. Al momento la mia idea resta che una funzionalità, se c'è, deve essere perfetta. Il rischio di queste cose a metà è proprio quello di abituare male il conducente.
Se posso esprimere un parere (non sull'incidente in sé): il comunicato stampa della Tesla è semplicemente intollerabile, perché trasuda tutta l'arroganza, la presunzione, la superbia e l'assoluta sicurezza di sé che, a quanto mi pare di capire, sono il marchio di fabbrica di Musk. Non c'è il benché minimo accenno ad una qualsiasi assunzione di responsabilità: sì, ci dispiace tanto, ma pazienza, gli incidenti succedono, noi abbiamo sempre e comunque ragione, decidiamo noi cosa fare e come, e non c'è nulla da cambiare.

Se mai avessi accarezzato l'idea di acquistare una Testla, la mentalità che traspare da questo comunicato - che oltretutto dovrebbe servire a migliorare l'immagine della ditta!! - basterebbe a farmene passare la voglia, e per sempre.
@Paolo Attivissimo

Io starei attento alle dichiarazioni di Tesla: quelli sanno benissimo cosa scrivono. Per esempio

Secondo questo comunicato di Tesla dedicato proprio all'incidente: "In the US, there is one automotive fatality every 86 million miles across all vehicles from all manufacturers.

"automotive" include solo le auto o anche (come "all vehicles" e "all manufacturers" sembrerebbe indicare) moto, scooter, camion?

Lo dico perché è abbastanza risaputo che la parte del leone tra i morti per incidente, percentualmente parlando la fanno i motociclisti (figuriamoci poi coi dati al km...), che chiaramente non sono compresi nei dati dei morti in -automobili- con autopilot (Tesla fa solo quelle).

Per lo stesso motivo, io starei attento a questo dato:

For Tesla, there is one fatality, including known pedestrian fatalities, every 320 million miles in vehicles equipped with Autopilot

Quello che dicevo prima si concretizza: se prima "automotive" includeva tutti gli incidenti relativi a -automobili-, allora perché inserire la precisazione sui pedoni ora, solo per Tesla? Se prima "automotive" non includeva gli incidenti con i pedoni, perché includere il dato per quanto riguarda Tesla? Se "automotive" includeva tutti i veicoli, che rilevanza può avere con Tesla, che fa solo -automobili-?

In ogni caso il dato non è coerente.

Ancora:

There are about 1.25 million automotive deaths worldwide. If the current safety level of a Tesla vehicle were to be applied, it would mean about 900,000 lives saved per year."

Nel mondo i tassi di incidentalità, di mortalità, la sicurezza dei veicoli e delle strade, la quantità di popolazione, non sono quelli statunitensi, e non possono venire paragonati in questa maniera. Moltissimi paesi asiatici, per dire, che hanno quantità enormi di persone, -motovecioli- (e torniamo la discorso di prima) e tassi di incidentalità e mortalità spaventosi, hanno strade dove le Tesla non riuscirebbero a percorrere un metro. In molti paesi dell'Africa le Tesla non avrebbero abbastanza autonomia per essere anche solo vagamente utili. Moltissimi paesi in tutto il mondo, peraltro, hanno tassi di mortalità elevati per la vetustà del parco circolante.

---

Insomma, ancora una volta Tesla sa usare i dati per fare pubblicità; La reale efficacia dei sistemi (che sembrerebbe buona) non sembra ancora valutata correttamente.

SirEdward,

Io starei attento alle dichiarazioni di Tesla: quelli sanno benissimo cosa scrivono. Per esempio

Certamente. Probabilmente ogni parola di quel comunicato è stata accuratamente vagliata da un PR, da un legale e da un tecnico o più. Se qualcuno ha dati migliori, ben vengano.
Carissimo Paolo. Lungi da me voler criticare. Probabilmente il cpmmento sembrava troppo secco, mi scuso. Mi domandavo solo che un sistema autopilot dovrebbe avere un sistema antifailure del pilota per proteggerlo. mi domandavo solo se, tra le tante cose incredibili che fanno le tesla (parcheggiano da sole, ti viene a prendere quando le chiami, si ferma agli stop, guarda e poi riparte) non fossero capaci di rallentare e posizionarsi in zona sicura se sto male alla guida e non rispondo agli avvisi di sicurezza; a desta o sinistra non é un gran problema, ha le mappe gps, sa meglio di me quale sia il senso di marcia. Sembra di no. Io comprerei subito un'auto che mi protegge se ho un malore o un colpo di sonno. Mi sembra di capire che questa feature non ê prevista. Peccato, aspetto la prossima release del software. Per me la prima cosa é la sicurezza. L'auto a mio parete dovrebbe rifiutarsi di tollerare/accettare un comportamento scorretto del pilota. Secondo la I legge della robotica. Che per me é cruciale. Scusa ancora
@Paolo Attivissimo

Certamente. Probabilmente ogni parola di quel comunicato è stata accuratamente vagliata da un PR, da un legale e da un tecnico o più. Se qualcuno ha dati migliori, ben vengano.

Non penso che abbia senso, ancora, parlare di sicurezza in questi termini. D'altronde, se Tesla davvero mette a confronto i dati di -tutto- il circolante a motore con i dati delle sole -automobili- Tesla, già il confronto non ha alcun senso.

E' troppo presto per avere conferme. Che gli aiuti alla guida siano un vantaggio, è noto, ma che il sistema autopilot sia "meglio" di altri, in un momento in cui è ancora il conducente a dover avere il controllo della situazione, non è necessariamente vero. Bisognerebbe per esempio testarlo nel confronto con sistemi di assistenza alla guida manuale disponibli sulle nuove vetture vendute, non con -l'intero- parco circolante, che comprende anche le moto e i veicoli vecchi.
@SirEdward & PA
Giustissimo, allora si capisce quanto sia commercialmente azzeccato il nome "autopilot" rispetto ai vari assistenti della concorrenza.
@Lampo13

Da vecchi ricordi, un giorno mi spiegavano che il Pilota Automatico degli aeromobili si limitava a bloccare i timoniere di direzione. Dove sbaglio?

Per quel che vale, in una vecchissima avventura di Topolino, il nostro eroe alla guida di un aereo attiva il pilota automatico e si fa un sonnellino. Nessun contatto radio con nnessuno. Poi si sveglia e riprende il controllo manuale. È un buon modo per perdere il brevetto di volo nel mondo reale? ;-)

A parte questo, di infallibile a questo mondo c'è solo il Papa, ma non credo che gli inglesi lo considerino tale.

Senza dimenticare il Cannone Infallibile della Base Yasdam!

https://youtu.be/eNy6rVtu98Y

A 17:02

Ecco la stampa italiana che insegue lo scoop mi ricorda Wile E. Coyote che rincorre il Bip Bip finendo ogni volta nel precipizio o contro le rocce ad alta velocità alla prima curva :-)
A-ehm.

Non vorrei entrare in tackle nella discussione in atto, ma l'accostare e fermarsi a bordo strada se il guidatore rifiuta di "ritornare attento" o se proprio è impossibilitato (per esempio se ha avuto un malore) è esattamente quello che fanno alcuni dei sistemi dei concorrenti.
Quindi non è stregoneria.

E peraltro lo fanno dopo pochi secondi di disattenzione, non dopo i MINUTI di Tesla.
E' la sottile differenza tra chi sceglie di far fare da beta-tester ai propri clienti e chi invece preferisce evitare di scommettere sulla loro pelle.

E sia chiaro, che questo incidente venga dichiarato rilevante o meno, dopo le indagini, è indifferente: l'azienda si comporta in maniera opaca su questo punto, e prima o poi sti nodi dovranno venire al pettine.
@Daniel
Guardi, lei ha ragione e io ho torto, purtroppo per lei però gli incidenti nei quali vengono coinvolti i sistemi di guida assistita di tesla sono veramente tanti e anche piuttosto grotteschi. Quindi continui pure, come si capisce bene dal suo intervento, a pendere dalle labbra del suo mito musk: da parte mia mi auguro solo che questa azienda che fa sperimentazione sulla pelle degli utenti chiuda al più presto.
@Paolo
@SirEdward

Paolo, non è questione di avere o non avere dati migliori: è questione -in questo caso come in tutti gli altri- di sapere di cosa si sta parlando con cognizione.

Da un punto di vista statistico, il comunicato di Tesla (che sicuramente è stato accuratamente vagliato da un loro legale, per evitare accuse di falso, in USA) non ha alcuna parvenza di raziocinio.

Il motivo è -statisticamente- banale: il campione statistico sul quale si basa (il numero di miglia percorso annualmente dalle Tesla) non è sufficientemente ampio per dimostrare -statisticamente- alcunchè, nè che le Tesla sono più sicure della media, nè che lo sono meno.

Partiamo dai dati sulle miglia percorse: in USA nel 2017 pare siano stati circa 3220 miliardi (fonte: supponiamo che sia affidabile; https://www.npr.org/sections/thetwo-way/2017/02/21/516512439/record-number-of-miles-driven-in-u-s-last-year)
Le miglia GLOBALMENTE percorse da Tesla (cioè non in un anno, ma da sempre) pare siano 5 miliardi ( https://electrek.co/2017/07/12/tesla-global-fleet-electric-miles-model-3-launch/)

Per cui, con un calcolo evidentemente favorevole a Tesla, per ogni miglio percorso da Tesla ci sono 643 miglia percorse da "altri" [(3220-5)/5]


Per fare un esempio triviale, consideriamo il classico "lancio della moneta".

I lanci con monete non truccate hanno il 50% di mostrare "testa" piuttosto che "croce".
Supponiamo di avere 1 moneta generica, ed una moneta "Tesla".

Lanciamo la moneta generica per 643 volte, e poi ancora per 643 volte (2 x 643), e registriamo i risultati. Aspettiamoci di trovare un numero di "teste" e "croci" all'incirca equivalente (diciamo 620 "teste" e 666 "croci"-> "testa" al 48,2% , tanto per fare un esempio realistico).

Ora lanciamo la moneta "Tesla" per 2 volte (la stessa proporzione 1:643 delle miglia percorse): è possibilissimo (1 caso 4) che escano due "teste", ad esempio. Supponiamo che sia così, per cui -> "testa" al 100%.

Per quanto esemplificato sopra, l'annuncio di Tesla sulle miglia -con i numeri esposti- equivale a dire: "la moneta Tesla, quando lanciata, mostra la "testa" al 100%, contro il 48,2% della concorrenza della moneta generica.

Ovvio che la mistificazione sta nel campione statistico (due lanci di moneta non sono sufficienti per fare emergere la serie statistica). Chiaro no ?
31.3.18 60 commenti
Incidente mortale in Tesla, l’Autopilot era attivo ma il conducente non ha risposto ai suoi avvisi
Ultimo aggiornamento: 2018/01/04 13:50.

attenzione agli standard
la data e l'ora dell'aggiornamento è la prima cosa che guardo
"il tratto di strada è chiaramente pericoloso, visto che l’assorbitore d’urto era stato distrutto da una collisione precedente di un veicolo convenzionale"

Ci ricordiamo che in italia una bariera fatta cosi' e' una rarita' assoluta?
corollario: guidare in ita e' chiaramente pericoloso

Detto questo la tesla vende un ausilio con un enfasi che sembra un vero autopilota.
Questo, insieme alle ali sbattenti del furgoncino X, fa sembrare tutto molto avanzato e cool. Ma il motivo per il quale non e' un sistema diffuso e' che non funziona.
Almeno non funziona come ci si ILLUDE.

Dal punto di vista del maketing e' vincente e' il telefonino che fa foto bellissima (bleurg!), e' il tv 4k, e' il dimagrin (TM) e le lampadine LED.
Tutte cose che in certi ambiti e situazioni potrebbero anche funzionare molto bene ma non e' il caso di crederci troppo fuori dai loro ambiti.

Come questi il coso (autopilot) puo' essere positivo ma chi pensa che risolva tutti i mali della terra ne paga le conseguenze.

Dopotutto basta vedere alle rotonde in contropendenza della mia citta' quelli che pensano che il SUV sia meglio della panda: regolarmente il tuareg e altri furgoncini analoghi intraversati sono la norma.
E' colpa della starda con velo di acqua?
certo.
E' colpa del guidatore asino?
certo.
Ma e' soprattutto colpa delle riviste e dei costruttori che sono felici di dire che il VW caddy si puo' vendere a 30KE e le riviste sono felici di prendere i soldi.

Il caddy e' sicuro con 180CV, turbo e rialzato e ha una tenuta di strada di una elise (leggendo le riviste sembra quello).
In realta' e' da andarci MOLTO cauti come tutti i suvvettini che oggi vanno di moda.
Il ford transit, che tiene meno la strada, non e' il male, ma non viene venduto come performante, infatti non ne trovi intraversati neppure quando nevica (spesso, dalle mie parti strage di suv, l'ultima volta un tarocc parcheggiato in mezzo alla rotonda. Ci vuole fegato per comprare un tarocc-q2)

E' una questione percettiva, chi compra il transit non pensa di avere un'auto, chi compra un q7 pensa di avere una berlina seria, non un mezzo dalle reazioni di un furgone da lavoro quale e'.

Alla stessa stregua l'autopilot non e' "il male" ma se viene venduto come sicuro, futuro e chiamandolo con un nome che lascia presagire altro... tesla ha la sua colpevolezza come quando VW dice che il diesel e' ecologico o FIAT dice che l'accozzaglia punto-renegade e' sicura.

Cambiando la percezione e' possibile chiedere piu' soldi. Pero' sarebbe ora di smetterla. Non solo per tesla.
Sempre più convinto che siamo tecnologicamente lontanissimi da una macchina che si "guida da sola", se non eventualmente in autostrade appositamente costruite per questa tecnologia, e che deve essere ben chiaro che guida assistita significa che tu guidi e la macchina ti dà una mano, e non viceversa. Qualcosa di concettualmente analogo all'ABS.
Piccolo refusi nel link al video "Un video pubblicato da poco su Youtube" va rimosso l'apice in fondo.
A tutti quelli che definiscono gli utenti Tesla dei beta tester: non è corretto, in quanto il beta tester è consapevole di esserlo, inoltre non rischia la vita durante il test. Secondo me il termine più corretto è cavie da laboratorio, con la differenza che a queste ultime almeno il vitto e alloggio vengono pagati. E qua sta il punto: o mi vendi un sistema che funziona, o, se il sistema è ancora in fase di messa a punto, sei tu che mi devi pagare per il disturbo, è ora di finirla con lo scaricabarile che ogni volta che ci scappa il morto era sempre colpa sua.
L'aggiornamento del copycat che cerca di "ricreare" l'incidente è abbastanza inquietante.

Personalmente, mi chiedo se non sia successo esattamente qualcosa di simile al defunto ingegnere Apple.

Ha lamentato delle anomalie, soprattutto in quel tratto.
Era un tecnico qualificato e intelligente
É stato incuriosito dall'anomalia.
Ha provato a vedere "cosa succedeva se"
Si è visto cosa è successo.

Posti tutti i limiti dell'"autopilot", io non me la sentirei di escludere si tratti proprio di un guidatore hacker (nel senso buono del termine, intendo) che si è sentito stuzzicato a voler testare dove fossero questi limiti e cosa accadesse in quel caso limite.
Coi risultati che sappiamo.
@Templaro Secolari

A me sembra che una media di incidenti per miglio calcolata su 5 MILIARDI di miglia percorse possa avere una significativita' statistica.
Ho visto il video del tizio coraggioso che replica l'incidente.
Mi sembra di notare che l'autopilot notifica piu' volte che c'e' un problema e chiede di riprendere il comando dell'auto in modo attivo.
Vedendo come si divide la strada e la segnaletica a terra la cosa sembra confermare ovvie considerazioni, la segnaletica stradale verticale e quella orizzontale sono elementi critici per la guida autonoma. Strade in cui e' ambigua o assente credo siano frequenti e quindi potenzialmente molto rischiose.
Conosco vari svincoli di autostrade e "superstrade" che fanno schiantare guidatori umani perche' fatte male, probabilmente Autopilot non riuscirebbe a gestire da solo le condizioni.
Es:
Bivio autostrada Piacenza-Brescia/A4 (verso Bergamo): https://goo.gl/maps/zB9FDNMZQWr
Se notate il tratto di strada prima del bivio non ci sono le strisce a terra per quasi un kilometro, quindi (ipotizzo) la Tesla con Autopilot si posizionerebbe al centro della corsia, per poi trovarsi di fronte a un bel bivio da imboccare, che richiede (se si va a Bergamo) un aumento di sterzata appena si vede il separatore giallo.

@templaro secolari,
Autostrade per l'Italia conta il numero di decessi per 100 milioni di km percorsi (all'anno). Mi sembra di capire che le auto Tesla, negli Stati Uniti, percorrano più di 100 milioni di km l'anno, perciò ipotizzo che statisticamente il campione sia valido.
vorrei fare una standing ovation a blu-flame.
Ho visto adesso il video dell'aggiornamento di oggi.

Impressionante notare come la Tesla segua la linea continua a sinistra, ignorando sia quella tratteggiata a destra che quella semicancellata che segue la direzione giusta con tutti i tratti indicanti divieto (anch'essi semicancellati). Impressionante anche che non consideri l'ostacolo in mezzo alla strada. Probabilmente il software ritiene che la linea continua che sta seguendo lo -debba- necessariamente portare a evitare l'ostacolo.

C'è ancora moltissimo da lavorare; per come è in questo video, il sistema di Tesla è un po' come affidare la propria vita a una traduzione corretta effettuata da Google Translate.

Chiamarlo "autopilot", così com'è, è davvero una scelta vergognosa, un inganno vero e proprio che gioca sull'effetto che la parola farà sulle persone.
Fabio Bianchi,

ho corretto, grazie.
Appassionato,

mi auguro solo che questa azienda che fa sperimentazione sulla pelle degli utenti chiuda al più presto

1. I limiti dell'Autopilot sono chiaramente e ripetutamente indicati nel manuale. Se poi l'utente decide di non leggerlo, o di ignorarli, non è colpa di Tesla. Se ti tagli le mani maneggiando una motosega perché hai deciso di scavalcare il sensore di sicurezza, non è colpa del produttore della motosega. Se sali sul tetto di un treno e tocchi il pantografo sul quale c'è scritto "NON TOCCARE - PERICOLO DI MORTE", non è colpa del fabbricante del treno.

2. Se vogliamo parlare di "sperimentazione sulla pelle degli utenti": le case automobilistiche coinvolte nel Dieselgate hanno fatto sperimentazione sulla pelle non solo degli utenti, ma anche dei non utenti. L'esperimento era "vediamo quanti riusciamo ad ammazzarne con i diesel truccati senza che nessuno se ne accorga".
Johnny Dio,

è ora di finirla con lo scaricabarile che ogni volta che ci scappa il morto era sempre colpa sua.

Ti chiedo una cortesia: scaricati il manuale della Model X e conta quante volte viene ribadito quali sono i limiti dell'Autopilot, che le mani vanno tenute sul volante e che gli avvisi dell'Autopilot non vanno ignorati.

Poi dimmi se è "scaricabarile".
Non dubito che il NTSB avrebbe anche lui pensato a ricostruire l'incidente, e magari lo ha anche già fatto. Però dobbiamo comunque essere grati a chi ha avuto il fegato o l'incoscienza di provarci "pubblicamente", perché il suo esperimento permette già di arrivare a certe conclusioni innegabili:

- La Tesla ha messo in commercio (non su strada per sperimentazione: proprio in commercio) delle vetture con un qualche grave difetto di programmazione, che in certe circostanze ancora ignote fa loro perdere il controllo della segnaletica orizzontale;

- Però il sistema ha reagito esattamente come dovrebbe reagire un sistema di guida semi-automatica ben progettato, e cioè segnalando al conducente umano "qualcosa non funziona, sto perdendo il controllo, guida tu!". QUESTA è l'unica logica accettabile, e non certo l'assurda pretesa che il conducente umano debba essere sempre pronto e vigile per accorgersi di eventuali errori del sistema e intervenire;

- Però (e questa è davvero gravissima) il sistema, pur sapendo di non sapere più cosa stia facendo, e pur sapendo che il conducente non ha ripreso il controllo, cosa fa? Rallenta sino a fermarsi? Oh, no: tira dritto...

Tutto questo punta a dei gravissimi errori di programmazione: la Tesla ha delle responsabilità enormi, e penso che la pagherà cara.

Paolo non ha certo bisogno dei miei consigli, ma al suo posto cercherei al più presto di cancellare la mia prenotazione, anche a costo di rimetterci dei soldi. L'idea di mettere la mia famiglia in mano a gente che segue politiche commerciali di questo tipo non mi farebbe dormire la notte.
@ebonsi
l'assurda pretesa che il conducente umano debba essere sempre pronto e vigile
Io non la trovo affatto assurda. Anzi, trovo assurdo che qualcuno la trovi assurda!

Gli aiuti elettronici sono appunto aiuti. Aiutano il pilota, non sostituiscono né la sua capacità di guida, né tantomeno il suo giudizio.

L'elettronica può salvarti le chiappe se non sai guidare (NB: "saper guidare" != "saper andare in auto"), se hai un colpo di sonno, se hai un malore; rilassarsi e affidarle ciecamente la propria vita è da incoscienti e da stupidi. Non siamo ancora a quei livelli di automazione, proprio no.

Poi si può dibattere ad nauseam su "è Tesla che ha usato un nome ingannevole", "sì ma il manuale dice che", "allora perché comprarsi una Tesla e non una Golf con Lane e Front Assist" e tutte le altre argomentazioni che saltano fuori in questi casi. Ma quello è già oltre.

Il passo prima è: in auto si sta attenti, mani sul volante, piedi sui pedali, PUNTO. Non importa se stai guidando un Sisley 4x4 la cui unica dotazione di sicurezza consiste nei santini sul cruscotto, piuttosto che una Tesla (o chi per essa) iper-imbottita di avanzatissima elettronica.
Libero di pensarla diversamente: per me, vendere un prodotto scrivendo che però potrebbe non funzionare è la QUINTESSENZA dello scaricabarile, è come le scritte sulle sigarette, sono metodi ottimi se si vogliono evitare grane legali, ma questo esaurisce la loro utilità. Mi scuso per l'esempio paradossale e un po' forte, ma non potremmo direttamente tatuare l'interno di ogni utero con la scritta "nascere porta alla morte"? Così nessuno sarebbe più responsabile di niente, tanto era stato avvisato, no?
Vediamo un secondo:
- hai un'auto con assistente alla guida
- noti che molto spesso quando passi da una certa strada l'assistente scazza di brutto
- l'assistente alla guida ti manda ripetuti avvisi che qualcosa non gli torna
- nonostante questo tu non riprendi il controllo dell'auto e ti schianti contro lo spartitraffico.
Pero' la colpa e' dell'assistente alla guida.
Va bene...
ebonsi,

Paolo non ha certo bisogno dei miei consigli, ma al suo posto cercherei al più presto di cancellare la mia prenotazione, anche a costo di rimetterci dei soldi. L'idea di mettere la mia famiglia in mano a gente che segue politiche commerciali di questo tipo non mi farebbe dormire la notte.

Purtroppo qui si tratta di scegliere fra questo e chi segue politiche commerciali che avvelenano silenziosamente la popolazione (il Dieselgate, che coinvolgerà anche molti altri grandi nomi quando qualcuno si deciderà a far uscire i dati dei trucchetti usati nei camion, per esempio).

Non ho fiducia in nessuno: da qui i miei passi molto cauti con l'auto elettrica. La prenotazione che ho fatto con Tesla è pienamente rimborsabile. Se deciderò di prendere una Tesla, non ho alcuna intenzione di affidarmi ciecamente a un sistema di guida assistita perché ne ho capito i limiti. Avendo già provato l'Autopilot personalmente e avendone visti i limiti molto chiari, lo tratterei per quello che è: un semplice assistente di guida.
@Christian Franzone

Da vecchi ricordi, un giorno mi spiegavano che il Pilota Automatico degli aeromobili si limitava a bloccare i timoniere di direzione. Dove sbaglio?
Non sono Lampo13, ma sono un pilota di aerei leggeri. L'autopilota di tutti gli aerei di linea e anche di molti aerei leggeri è un vero e proprio regolatore di quota e direzione, nel senso che mantiene attivamente l'aeromobile alla quota e nella direzione voluta. È in grado di tenere la rotta, e di fare le virate necessarie per effettuare la rotta pianificata.

È in grado, potenzialmente, di sostituire il pilota da immediatamente dopo il decollo a fermare l'aereo sulla pista di atterraggio.

Per fare questo la terna aereo, aeroporti, piloti, devono essere certificati e addestrati in merito, i piloti si occupano delle comunicazioni con gli enti di controllo, di impostare eventuali deviazioni dal percorso pianificato, eccetera. In base alle direttive delle compagnie effettuano l'atterraggio in manuale se le condizioni meteo lo permettono.

In passato gli autopiloti erano più rozzi, contribuendo a un incidente (questo).
Ho visto i due video.
In quello notturno (dove l'autopilot porta la Tesla a replicare l'incidente, se non che l'autista frena) si capisce qual è il problema:
l'autopilota "perde" di vista la riga di destra e comincia a seguire la riga di sinistra, mancando di vedere (al secondo 28, la riga è quasi invisibile) la riga che si separa da quella e porterebbe l'auto nella giusta corsia. La scelta di seguire la riga di sinistra (e non quella di destra) è deleteria e porta l'autopilota all'errore.

Il LKAS della mia Ioniq, se non vede entrambe le righe si sgancia, questo decide di seguirne una (con quale criterio non si sa). Sfortunatamente si mette a seguire una riga pensando che sia "di sinistra" mentre invece era "di destra".
Inoltre non vede le righe a v di traverso (sono molto più sbiadite della riga bianca che segue) e soprattutto non vede il grosso cartello giallo catarinfrangente romboidale che campeggia sul culmine dello spartitraffico.
Da un sistema che si dice "autopilot" mi aspetterei che riesca a capire i cartelli.

Inoltre non mi sembra, come è stato scritto, che "il conducente aveva ricevuto numerosi avvisi visivi e uno acustico di riprendere il controllo poco prima, durante la guida". Solo un blando avviso visivo (il lampeggìo della cornice e lo spegnimento della riga di destra) e nessun avviso acustico.
Poi magari l'auto dell'incidente si è comportata diversamente, però anche in questo caso senza l'intervento umano ci sarebbe stato il botto.

e poi se
non bisogna togliere le mani dal volante e bisogna restare sempre pronti a intervenire

perché l'auto permette di stare senza mani sul volante? La mia Ioniq, che avrà un sistema meno figo, se stacco le mani dal volante per più di qualche decina di secondi, suona decisamente, e dopo qualche altro secondo sgancia il sistema. Mi sembra una soluzione più che buona se non bisogna togliere le mani dal volante. Ma questo "cozza" con l'immagine di Autopilot che vuol dare Tesla.


@guido pisano
Tutto giusto, ma non vedo i ripetuti avvisi che qualcosa non va, almeno nel video postato qua sopra.
Jonny Dio,

vendere un prodotto scrivendo che però potrebbe non funzionare è la QUINTESSENZA dello scaricabarile, è come le scritte sulle sigarette, sono metodi ottimi se si vogliono evitare grane legali

Falso. Ripeto il mio consiglio: scaricati il manuale della Model X e conta quante volte viene ribadito quali sono i limiti dell'Autopilot, che le mani vanno tenute sul volante e che gli avvisi dell'Autopilot non vanno ignorati.

Non si dice "potrebbe non funzionare". I limiti sono spiegati molto dettagliatamente. Non mi sembra corretto, da parte tua, denigrare qualcosa sulla quale non ti sei documentato almeno leggendo il manuale. Non dico di fare una prova pratica, ma almeno leggere il manuale prima di fare accuse pesanti.
Vedo un atteggiamento molto irrazionale da parte di molti. L'approccio giusto è: utilizzare l'Autopilot aumenta o diminuisce il pericolo di incidente e di incidente mortale? Tutto qui. Come l'utilizzo delle rotatorie al posto degli incroci, che non hanno annullato i morti in incidenti, ma li hanno fortemente ridotti. Poi, se posso aggiungere, quello svincolo è particolarmente mal segnalato.
Prima di tutto vorrei invitare tutti a non saltare troppo facilmente a conclusioni che potrebbero rivelarsi non supportate dai fatti; come anche nel caso dell'incidente del veicolo Uber, è necessario prima capire esattamente cosa è successo (il che è compito degli investigatori).

In generale (quindi indipendentemente dai due episodi specifici) sono sostanzialmente d'accordo con quanto dice ebonsi, ovvero che un sistema "misto", nel quale da una parte il guidatore è di fatto scaricato dall'incombenza di guidare ma dall'altra mantiene la piena responsabilità di ciò che accade, apre la porta ad innumerevoli problemi.
Non basta scrivere sul manuale d'uso che è necessario mantenere sempre il controllo della situazione: inevitabilmente il guidatore finirà con abituarsi al sistema che si occupa di tutto e abbasserà la sua soglia di attenzione. E a quel punto in caso di problemi molto facilmente reagirà in ritardo oppure in modo scorretto (perdendo il "feeling" della guida sarà estremamente facile trovarsi ad agire sui comandi in modo eccessivamente violento o eccessivamente docile).

Tutti questi problemi sono ben noti nel campo aeronautico, dove l'uso del pilota automatico è la regola, ma in quel caso:
- il pilota viene addestrato in modo specifico a questo tipo di situazione, a differenza del guidatore medio
- tranne durante l'atterraggio, che è comunque una fase specifica durante la quale l'attenzione del pilota è massima, i tempi di reazione sono molto più dilatati - reagire con 2-3 secondi di ritardo in un aereo è sostanzialmente indifferente mentre su una strada affollata è inaccettabile
- il pilota è comunque nella stragrande maggioranza dei casi un professionista che sta svolgendo il suo lavoro

Ho l'impressione che nei prossimi anni assisteremo ad un numero sempre maggiore di incidenti nei quali il fattore scatenante sarà la combinazione sistema automatico in difficoltà + guidatore disattento. E sarà probabilmente necessario ripensare completamente il modo in cui si insegna a guidare.
I limiti dell'Autopilot sono chiaramente e ripetutamente indicati nel manuale.

Purtroppo non funziona così.

Secondo me Elon Musk ha fatto scattare il meccanismo del "io non posso dire che... ma lo è".

In pratica, molta gente si è convinta che Musk non possa dire esplicitamente che le sue Tesla sono a guida autonoma solo perché non sono omologate per questo ma, di fatto lo sono.

Infatti il loro sistema di "assistenza" alla guida si chiama "autopilot"
Inoltre ci sono video di utenti che, addirittura, si sono seduti dietro mentre la loro Tesla guidava per loro.

anche se il manuale d'uso è pieno di avvisi che non si tratta di un sistema di guida autonoma, molti si sono convinti che sono scritti solo per motivi formali.

Io cose del genere le ho sentite anche nel mio settore.

Infatti, capita che vengano rappresentanti di attrezzature industriali che dicono cose dello stesso tipo.

Per esempio, capita che dicano:"la mia attrezzatura è omologata per questo e quello. In realtà è in grado di fare anche quest'altro, esattamante come l'attrezzatura di quell'altra marca che costa un cifrone di più.

Quando si chiede loro perchè non possono scriverlo esplicitamente allora rispondono che non possono farlo perché, per quella specifica omologazione, bisognerebbe installare un meccanismo di sicurezza aggiuntivo che la farebbe costare quanto quella dell'altra marca che costa un cifrone di più.

Quindi "non possiamo dire che lo è... ma lo è".

Inutile dire che, se poi avviene un incidente per uso impropio, le conseguenze sono nostre.

Musk ha fatto credere che la Tesla sia a guida autonoma. Infatti ha permesso per lungo tempo che si potesse utilizzare l'autopilot senza badare alla strada e solo recentemente ha inserito un controllo che dovrebbe far fermare l'auto in caso di disattenzione da parte dell'autista.
Non ha mai stigmatizzato (che io sappia) il comportamento di coloro che hanno pubblicato video "dimostrativi" della capacità dell'autopilot.
Queste sono grosse responsabilità che, forse, solo la qualità delle strade americane (che non sono quelle italiane, specialmente del sud d'Italia) non hanno portato a tragedie peggiori.
Guastulfo,

anche se il manuale d'uso è pieno di avvisi che non si tratta di un sistema di guida autonoma, molti si sono convinti che sono scritti solo per motivi formali.

Beh, hanno sbagliato. Esattamente come i sub che muiono perché pensano che gli avvisi del computer d'immersione siano per mammolette.

E comunque l'attuale AP Tesla non è tecnicamente in grado di fare guida autonoma. L'hai mai provato? Provalo. Te ne renderai conto immediatamente.

Musk ha fatto credere che la Tesla sia a guida autonoma

A parte la scelta del nome (che personalmente trovo ingannevole, no. La manualistica è sempre stata molto chiara. I venditori Tesla con i quali ho parlato sono sempre stati molto chiari. I Teslari con i quali parlo quotidianamente sono perfettamente in chiaro su come funziona.

Poi se un figlio prende in prestito la Tesla di mamma e se la porta a 180 all'ora in autostrada senza che il genitore abbia spiegato come funziona e si schianta perché ha inserito l'Autopilot si è voltato a chiacchierare per far vedere quanto è figo, la colpa non è di Tesla.


ha permesso per lungo tempo che si potesse utilizzare l'autopilot senza badare alla strada e solo recentemente ha inserito un controllo che dovrebbe far fermare l'auto in caso di disattenzione da parte dell'autista.

Ha ristretto i tempi per i quali si può usare l'AP senza avere le mani sul volante. Ma non è mai stata questione di non badare alla strada.


Non ha mai stigmatizzato (che io sappia) il comportamento di coloro che hanno pubblicato video "dimostrativi" della capacità dell'autopilot.

Lo ha fatto.

Queste sono grosse responsabilità che, forse, solo la qualità delle strade americane (che non sono quelle italiane, specialmente del sud d'Italia) non hanno portato a tragedie peggiori.

Hai mai provato le strade americane? Io sì: sono indegne di un paese civile. Associarle al termine "qualità" è... piuttosto difficile.

Per esempio, nelle strade italiane (ed europee) il triangolo fra quelle linee divergenti sarebbe stato riempito con bande diagonali. Lasciamo stare la segnaletica.
Due correzioni di ortografia:

A parte la scelta del nome (che personalmente trovo ingannevole, no = A parte la scelta del nome (che personalmente trovo ingannevole), no

ha inserito l'Autopilot si è voltato -- ha inserito l'Autopilot e si è voltato
@Paolo (not Attivissimo)

"A me sembra che una media di incidenti per miglio calcolata su 5 MILIARDI di miglia percorse possa avere una significativita' statistica. "

Ti sembra a sensazione, perchè 5 Miliardi è un numero grande ?
Non puoi ragionare per numeri assoluti.
Quello che statisticamente è scorretto è l'esiguità del campione riferito a Tesla (5Gmiglia), rispetto al campione globale analizzato (3220Gmiglia) che è 1:644 per la precisione.

Provo a farti un altro esempio (teorico, eh) esemplificativo basato sulle propozioni di cui sopra: supponi di dover valutare l'onestà di due tipologie di commercianti: quelli "con i capelli grigi" e quelli "con i capelli rossi".
Hai una popolazione di 645 commercianti, di cui 644 "grigi" ed uno "rosso".
Di quelli "grigi", 500 sono onesti e gli altri 144 sono disonesti.
Il commerciante "rosso" è onesto.
Secondo te, statisticamente parlando, è più razionale dire che "i commercianti grigi sono per la maggior parte onesti", piuttosto che dire "i commercianti rossi sono onesti" ?


@Jotar

"Autostrade per l'Italia conta il numero di decessi per 100 milioni di km percorsi (all'anno). Mi sembra di capire che le auto Tesla, negli Stati Uniti, percorrano più di 100 milioni di km l'anno, perciò ipotizzo che statisticamente il campione sia valido."

Stiamo parlando di un'altra cosa.
Non del numero di decessi per km percorso, ma della differenza fra decessi di conducenti di auto "non Tesla" confrontata con quelli di conducenti di auto "Tesla".

Ed in ogni caso secondo il mio parere ipotizzeresti comunque in modo errato, perchè se la rete italiana conta poco più di 800.000 km di strade (fonte: Wikipedia, fidiamoci come ordine di grandezza), significa che fare statistica su 100.000.000 di km percorsi/anno vuol dire mediamente 100M/365 = 274.000 km/giorno, cioè ogni giorno lasci fuori dalla "statistica" più dei 2/3 delle strade.

Esempio di Musk che scoraggia:

CEO Elon Musk urged prudence when using Autopilot, saying, “We tell drivers to keep their hands on the wheel just in case, to exercise caution in the beginning."

https://www.wired.com/2015/10/obviously-drivers-are-already-abusing-teslas-autopilot/


'There's been some fairly crazy videos on YouTube,' Musk said on an earnings call with investors yesterday. 'This is not good.'

Fonte: http://www.alphr.com/tesla/1001815/musk-condemns-crazy-tesla-autopilot-videos (2015)
ho scaricato e letto il LUM Tesla Model X (pag. 95 e segg.): mi sembra la quintessenza dello scaricabarile
AndreaG,

ho scaricato e letto il LUM Tesla Model X (pag. 95 e segg.): mi sembra la quintessenza dello scaricabarile

Faresti qualche esempio?
es. avvertimento pag. 107 colonna 1 (indicato con triangolo rosso): "essere sempre pronti a prendere le necessarie azioni correttive..."

con tutte le cautele...gesuitiche del caso, Tesla ammette implicitamente che l'Autopilot "può" condurre la macchina e che l'occupante del sedile ant.sx "deve" stare attento e -se del caso- riprendere i comandi

Nessuno è obbligato a comprare una Model X e men che mai ad utilizzare l'Autopilot, mi sembra però un'arma di distruzione di massa

Utilizzo abitualmente il cruise control (che si disattiva con un semplice tocco del freno ed anche solo incappando in un giunto autostradale un po' malmesso) ed anche il sistema FCW (forward collision warning), settato a distanza "media". Interviene (dovrebbe intervenire) con avvisi acustici e frenata di emergenza in caso di distrazione mia. In realtà ci sono stati più volte "falsi positivi" (es. nelle rotatorie). Lo ritengo comunque...utile e non lo disattivo (semplicemente ho aumentato le distanze di sicurezza).

Non mi farebbe piacere che, oltre ai bradipi attaccati allo smart/stupid-phone, le nostre strade si riempissero di veicoli con Autopilot.
@Camicius
- dichiarazioni Tesla - cito da questo articolo:
il conducente aveva ricevuto numerosi avvisi visivi e uno acustico di riprendere il controllo poco prima, durante la guida, e le mani del conducente non sono state rilevate sul volante per sei secondi prima della collisione.
Mah, a me tutti questi commenti un po' di impostazione calcistica mi fanno scendere abbastanza i cosiddetti. Bisogna cercare un colpevole a tutti i costi, se il guidatore commette una sciocchezza non è comunque colpa sua ma è stato ingannato, chi "difende" Tesla e Musk è un seguace del nuovo guru after Steve Jobs e via dicendo...
Io vedo che molte persone non sono in grado di utilizzare uno smartphone, un computer, un lettore di DVD. Una macchina come una Tesla è un mezzo complicato, all'avanguardia e sta aprendo la strada con coraggio e rischiando a volte molto. Ma, e non voglio certo dare alcuna responsabilità al conducente di quest'ultimo incidente, molte volte l'errore è umano e troppo spesso lo si dimentica.
La strada del progresso è una scia di sangue, è inevitabile, solo chi sta comodamente seduto sul divano bevendo la sua birra e non opera in determinati settori può essere tanto superficiale da non capire l'immensa complessità e difficoltà di quello che si sta sviluppando qui e giocare a fare l'esperto, il tuttologo e il giudice. Che provi a scrivere qualche riga di codice, che provi a far girare un minimo di programma e poi ne riparliamo. Qui si prova a fare una guida autonoma (Uber) o molto assistita (Tesla). I casi in cui qualcosa non sia previsto dal programma sono infiniti, le combinazioni pazzesche. Se fosse così facile non avremmo falle di sicurezza, no? Se non ci fosse stato l'incidente Air France (cito a braccio, sono passati anni), non si sarebbe capito che un determinato isolante, in determinate situazioni poteva prendere fuoco. Ma per riuscire a capirlo sono dovute morire più di 200 persone che però ne hanno salvate molte altre. Ora, di fronte alla complessità di un aereo, è imbarazzante ascoltare l'esperto dell'ultimo minuto che viene a sparare sentenze con spirito quasi complottista e dire che si gioca sulla pelle dei passeggeri.
Sicuramente questi due ultimi episodi hanno il sano effetto di raffreddare entusiasmi forse un po' troppo accesi circa la guida autonoma, andranno analizzati e corretti, ma tutti gli altri commenti "di pancia"... sarebbe opportuno risparmiarli. Oppure teniamoci le solite auto e i soliti guidatori e diciamo che la colpa è della BMW perché ha costruito una macchina potente che ha smezzato in due un poveretto che andava per la sua strada. Poi, se il conducente era drogato e ubriaco marcio, viaggiava a 140 in città, brucia uno stop e attraversa l'incrocio, poco importa.
Insomma, vedo che l'intelligenza (e il suo uso) sono troppo spesso un optional, proprio quando il mondo ne sta facendo sempre più richiesta.
Per questo comincio a sperare nella guida autonoma e nell'intelligenza artificiale...
Ma se un autista su di un veicolo a benzina si fosse schiantato nel medesimo punto, staremmo a far le pulci allo stato del guidatore, alla solidità della macchina, o alla manutenzione delle strade?

Quella strada è rattoppata, con segnaletica orizzontate a muzzo, e l'attenuatore fuori uso dopo oltre 10gg dall'incidente.
Peraltro a quanto vedo ora non c'è nemmeno più il cartello di pericolo sull'attenuatore KO, rendendo il tutto ancor più difficile da vedere (per umani e non)
Foto
Hai mai provato le strade americane? Io sì: sono indegne di un paese civile. Associarle al termine "qualità" è... piuttosto difficile.
Ecco qualcosa su cui siamo d'accordo.

Per esempio, nelle strade italiane (ed europee) il triangolo fra quelle linee divergenti sarebbe stato riempito con bande diagonali. Lasciamo stare la segnaletica.
Lo era. Si intravede. Ma la segnaletica orizzontale (complice anche il fatto che l'asfalto è molto chiaro¹) è praticamente indistinguibile. L'uomo capisce interpretando altre cose, neanche troppo folli, tipo il cartello, o più difficili per una macchina, tipo la forma delle strade, ma l'autopilot no.



¹ sulle piste di atterraggio, dove la pavimentazione è molto chiara, le scritte bianche vengono bordate di nero, come spiegato qua
@Paolo Attivissimo
2. Se vogliamo parlare di "sperimentazione sulla pelle degli utenti": le case automobilistiche coinvolte nel Dieselgate hanno fatto sperimentazione sulla pelle non solo degli utenti, ma anche dei non utenti.

Beh, anche Tesla: se la mia macchina si ferma in autostrada e dietro di me sopraggiunge una Tesla con AP inserito, mi centrerà in pieno/rallenterà sino a fermarsi in tempo/cambierà corsia per evitarmi?

Ma soprattutto, cosa succederà domani, nelle medesime condizioni? :)
Interessante il comunicato stampa sugli incidenti mortali per miglia percorsi.
Sarebbe però più utile e corretto avere dei dati non aggregati.
Le Tesla sono auto di categoria superiore e quindi anche in caso di incidente hanno una sicurezza passiva maggiore di una semplice utilitaria (sistemi airbag più evoluti, maggiori possibilità di dissipare energia etc).
Se esitessero sarei curioso di confrontare il numero di morti per chilometro per classe di autoveicolo ( utlitarie, berline, ammiraglie etc)
@Paolo Attivissimo
A parte la scelta del nome (che personalmente trovo ingannevole), no

Quello, per me, è un grave indizio di colpevolezza.

Poi Musk può dire quello che vuole ma il marketing ha puntato sul nome autopilot.

Come se io mettessi un'etichetta verde con su scritto ECO alla mia UNO diesel sfiancata con 500.000 km sulle spalle e, poi, scrivessi nel manuale che è un'auto che inquina molto e la sigla ECO sta per ECOnomica e non per ECOlogica.

Devo dire che, per fortuna, una qualche validità il sistema ce l'ha altrimenti, a giudicare dai video degli incoscienti, ci sarebbe stata una strage.

Questo non cambia la mia opinione sul fatto che Tesla sia un'auto all'avanguardia (e apripista) sotto molti aspetti.
Anzi, devo vedere se convinco il mio capo che è suscettibile al fascino delle berline molto potenti ma relativamente discrete (l'unica eccezione è una Maserati Quattroporte che, comunque, usa poco) a comprarne una. :-D

Hai mai provato le strade americane? Io sì: sono indegne di un paese civile. Associarle al termine "qualità" è... piuttosto difficile.

Fatti un giro per le strade urbane e provinciali pugliesi e, poi, ne riparliamo :-D
Cito:

"Per esempio, nelle strade italiane (ed europee) il triangolo fra quelle linee divergenti sarebbe stato riempito con bande diagonali."

Infatti io, guardando il video di "riproduzione" dell'incidente, mi sarei comportato come la Tesla. Avrei invaso il triangolo per accorgermi più tardi di averlo fatto. Ok... me ne sarei accorto, e non sarei andato a sbattere. Ma d'altro canto non stiamo parlando di un'auto interamente autonoma.
@Paolo
RTFM d'accordissimo e sacrosanto. Il problema e' che l'automobilista medio sa che anche se non legge il manuale, magari potra' non sapere come si usa la radio, potra' non sapere come si cambia una gomma, ma difficilmente se non leggi il manuale potrai causare un'incidente. Questo non perche' sia giusto ma perche' la gente e' abituata cosi' - aggiungici il nome fuorviante e il gioco e' fatto...
Scusate, mai sentito parlare del rasoio di Occam? Il tizio sulla tesla ha pensato bene di suicidarsi e si è lanciato contro lo spartitraffico.
Vorrei chiedere a chi ha provato il sistema Autopilot, visto che io non ho la possibilità di farlo, le sue impressioni. E' veramente così utile? Non riesco a immaginarmi mentre sono attento senza distrarmi un attimo per 300km senza guidare. Approvo molto i sistemi di aiuto alla guida quali ABS e simili, ma di un sistema così limitato non comprendo l'utilità
@ebonsi
l'assurda pretesa che il conducente umano debba essere sempre pronto e vigile

@Tommy the Biker: "Io non la trovo affatto assurda. Anzi, trovo assurdo che qualcuno la trovi assurda! Gli aiuti elettronici sono appunto aiuti. Aiutano il pilota, non sostituiscono né la sua capacità di guida, né tantomeno il suo giudizio."

Sí, ma allora - certo per mie limitazioni - non arrivo a comprendere quale mai sia l'utilità di un "autopilot" che non è un vero autopilot perché il manuale di istruzione spiega che non lo è (in primis, pararsi sempre il sedere), e quindi deve essere visto come un semplice "assistente". Se io devo comunque sempre restare in assetto di guida e con la massima attenzione alla strada e al traffico, mi spiegate quale mai sarebbe l' "assistenza" che ricevo, al di là di quella che può fornirmi un qualsiasi cruise control ormai presente anche sui monopattini? Qual' è mai il margine di vantaggio, di comodità e di sicurezza rispetto al guidare personalmente? Il vantaggio ci sarebbe davvero, e sarebbe enorme (in realtà già c'è, anche se in minima parte), se si parla di sistemi capaci di sorvegliare continuamente l'uomo alla guida e il traffico, per intervenire d'emergenza se necessario. Qui siamo invece a quella che continuo a vedere come un'assurdità: bisogna affidarsi completamente all'elettronica, ma al tempo stesso tenerla sempre d'occhio perché potrebbe fare qualche brutta stupidaggine.

Sarò un Neanderthal, ma mi sembrano soldi buttati dalla finestra solo perché fa tanto "moderno" e "cool". E dal punto di vista industriale e commerciale, sarei tentato di usare termini più energici.
ebonsi,

non arrivo a comprendere quale mai sia l'utilità di un "autopilot" che non è un vero autopilot perché il manuale di istruzione spiega che non lo è (in primis, pararsi sempre il sedere), e quindi deve essere visto come un semplice "assistente". Se io devo comunque sempre restare in assetto di guida e con la massima attenzione alla strada e al traffico, mi spiegate quale mai sarebbe l' "assistenza" che ricevo, al di là di quella che può fornirmi un qualsiasi cruise control ormai presente anche sui monopattini?

E' una domanda frequente. Provo a rispondere: considera il cambio automatico. Devi comunque essere vigile e governare l'auto, ma il cambio automatico ti rende meno oneroso questo compito. Anzi, per un automobilista imbranato come me, aumenta le risorse mentali disponibili per la vigilanza sugli altri rischi del traffico. Non devo più dedicare parte della mia attenzione a coordinare piede e mano e a chiedermi "ho messo davvero la terza, o sono in quinta?"

Sei in coda. Col cambio automatico, lavori con freno e acceleratore. Anzi, con la funzione "creep" di default (stile auto americana), lavori solo di freno. A ogni ripartenza per fare qualche metro non devi schiacciare la frizione, inserire la prima, rilasciare la frizione, premere l'acceleratore e poi premere frizione e freno per fermarti.

Puoi guidare in coda anche col cambio manuale? Certamente, ma con quello automatico arriverai meno snervato (e col polpaccio meno dolente).

Idem per l'Autopilot. Sei fermo in coda su una Tesla (o altra auto dotata di funzione analoga): l'auto davanti a te si muove in avanti di qualche metro. La tua auto fa lo stesso automaticamente. Confronta questo con la cambiata manuale o col cambio automatico.

Sei in autostrada. Il limite locale è 100 km/h. Vuoi stare a 98 tenendo d'occhio costantemente il tachimetro e quindi distraendoti dalla strada, oppure imposti il cruise control affinché l'auto tenga i 98 da sola? Con l'Autopilot, il cruise control è adattivo, per cui ti tiene i 98, ma se quello davanti a te rallenta, rallenti anche tu.

Idem per il mantenimento di corsia. Ho fatto viaggi lunghi in Autopilot, e pesano davvero molto meno sul conducente. Sei attento ma rilassato. L'auto ti assiste, non ti rimpiazza.
Max Senesi,

Vorrei chiedere a chi ha provato il sistema Autopilot, visto che io non ho la possibilità di farlo, le sue impressioni. E' veramente così utile?

Oh, sì. Leggi la risposta che ho dato a Ebonsi. Aggiungo un altro vantaggio dell'AP (o di un cruise control) su qualunque auto elettrica o comunque con coppia istantanea: riduce il mal di mare.

In guida manuale, i movimenti involontari del piede sull'acceleratore fanno accelerare e decelerare costantemente un'auto elettrica. La reazione istantanea del motore genera quindi una sorta di rollio longitudinale che a me scatena una nausea da movimento incontenibile (e non sono il solo). Attivi l'AP e invece pare di essere su un treno incollato al binario. Oltretutto l'AP riduce i consumi perché evita accelerazioni e rallentamenti.
AmiC,

se la mia macchina si ferma in autostrada e dietro di me sopraggiunge una Tesla con AP inserito, mi centrerà in pieno/rallenterà sino a fermarsi in tempo/cambierà corsia per evitarmi?

Dipende da chi la guida, non dall'auto. E questo vale per qualunque marca.
@ebonsi
non arrivo a comprendere quale mai sia l'utilità di un "autopilot"
Semplice: quando ti distrai accidentalmente, hai un malore, un cretino cambia corsia senza guardare rischiando di speronarti lateralmente... hai delle chances in più di sopravvivere.

Non mi sembra una cosa così assurda, tutti gli aiuti di guida (che ripeto, si chiamano AIUTI apposta!) funzionano così. Anche per quelli meno avanzati: tu cosa penseresti di uno che dice "bello schifo il traction control, credevo che si potesse dare sempre tutto gas e poi si gestiva lui, se devo lo stesso parzializzare tanto vale"?

Se trovi che il prodotto non valga i soldi che chiede (opinione più che rispettabile), puoi prendere una delle tante auto con aiuti avanzati, tipo le ultime VW e Volvo.
Idem per l'Autopilot. Sei fermo in coda su una Tesla (o altra auto dotata di funzione analoga): l'auto davanti a te si muove in avanti di qualche metro. La tua auto fa lo stesso automaticamente. Confronta questo con la cambiata manuale o col cambio automatico.

Sei in autostrada. Il limite locale è 100 km/h. Vuoi stare a 98 tenendo d'occhio costantemente il tachimetro e quindi distraendoti dalla strada, oppure imposti il cruise control affinché l'auto tenga i 98 da sola? Con l'Autopilot, il cruise control è adattivo, per cui ti tiene i 98, ma se quello davanti a te rallenta, rallenti anche tu.


Nel primo caso concordo: i rischi sono nulli (al più, se il sistema va in tilt, urti chi ti sta davanti a bassissima velocità.

Nel secondo caso non riuscirei a rilassarmi: l'idea che l'autopilot (o qualsivoglia assistente alla guida) possa fare una cretinata maleinterpretando la segnaletica o chissà cos'altro mi farebbe stare troppo sulle spine.

Preciso che sono il tipo che non si fida neppure del navigatore. Per me hanno la priorità le indicazioni stradali e, solo in assenza di queste, mi affido alle indicazioni del navigatore.

Il cruise control adattivo ti evita solo di avere il piede sull'acceleratore, è comodo e non distoglie l'attenzione alla guida. Anzi, ti permette, se il traffico diventa un po' troppo caotico, di avere il piede sul pedale del freno pronto a intervenire.
"vorrei fare una standing ovation a blu-flame"



So di essere in ritardo pazzesco, ma mi associo: standing ovation
@templaro secolari
Statisticamente hai detto una cavolata immane!
Il rapporto tra le dimensioni di due campioni non mi dice molto in questo caso. Che i dati di un campione siano tot volte quello di un altro dice nulla sulla validità di entrambi.
Nel tuo esempio i 2 lanci fanno un risultato incerto per l'errore relativi alto. L'errore in questo caso e dato dalla Statistica Poissoniana quindi è passerò alla radice quadrata del valore quindi hai 2±1.4, con errore relativo 1.4/2=0.7 è un rapporto segnale/rumore di 1.4
Ovvero è poco sicuro perché tu nel tuo esempio hai deliberatamente preso un numero basso di dati.
Più che miglia, prendiamo tragitti da 50mi, quindi 100.000.000, che comporta un rapporto segnale/rumore di 10.000 che è molto alto! Credimi che sono ricercatore/professore universitario

Se tiro migliaia di volte una moneta avrò senza dubbio una buona rappresentazione, e non cambia nulla che lanciandola milioni di volte sia ancora meglio. Con la tua idea nessuna ricerca ha dati sufficienti perché una col doppio sarebbe meglio.
@Guido Pisano
Sarà, però nel video che c'è in questo articolo, la Tesla con autopilota finisce dritta verso lo spartitraffico senza grosse segnalazioni. Poi l'autista frena, per fortuna, ma sarebbe stato un altro incidente.


In generale, comunque, se l'autista deve tenere le mani sul volante (e lo scrivi ogni 12 righe sul manuale) ma gli consenti di non farlo (per motivi di marketing, volendo vendere come autopilota quello che autopilota non è) sei corresponsabile in caso di incidente.
Paolo Attivissimo

Il paragone col cruise control o col cambio automatico secondo me non regge. Cruise control, cambio automatico e aiuti simili si occupano di funzioni ben delimitate(il mantenimento della velocità costante e la gestione del rapporto di marcia), senza MAI sostituirsi interamente al guidatore, neanche per brevissimi tratti di strada.
Invece l'autopilot TESLA, da quel che scrivono sul sito ufficiale italiano, con le sue videocamere e sensori "in grado di vedere attraverso la pioggia forte, la nebbia, la polvere e persino al di là delle auto precedenti" è in grado di sostituirsi(perlomeno così promette) ai sensi umani in maniera molto importante, col suo potente elaboratore è anche in grado di prendere numerose decisioni(come cambiare corsia, uscire ed entrare dall'autostrada, rallentare, frenare, accelerare ecc..) al posto del guidatore umano, tanto da poter " condurre l'auto per tragitti brevi o lunghi senza che il guidatore debba intervenire".
Degli aiuti alla guida "passivi" (come può essere un cicalino di avvertimento quando si infrangono i limiti di velocità,quando non si rispetta la distanza di sicurezza, quando c'è un altro veicolo o pedone negli angoli ciechi, quando il guidatore mostra segni di stanchezza che anticipano un colpo di sonno, frenata di emergenza in condizioni limite ecc...) e delimitati a poche funzioni circoscritte(come cambiare le marce, mantenere la velocità stabile, frenata assistita e sistema antibloccaggio delle ruote ecc...) non compromettono la concentrazione del guidatore umano(anzi in certi casi possono addirittura agevolare la concentrazione sulla strada), mentre un sistema che permette di percorrere dei pezzi di tragitto(lunghi o brevi che siano) senza alcun intervento del guidatore, conduce assai facilmente a perdersi in molteplici distrazioni(come messaggiare o giocare con lo smartphone, perdersi in chiacchiere senza guardare la strada, armeggiare col lettore mp3 o con il navigatore satellitare...o semplicemente estraniarsi nei propri pensieri) o comunque a un netto calo della concentrazione.

E anche se sul manuale di istruzioni della Tesla ci fosse scritto che quando si usa l'auto-pilot bisogna rimanere concentrati al 100% sulla strada, con le mani sul volante, sempre pronti fronteggiare limiti ed errori del sistema, non è umanamente possibile, non è nella natura del cervello umano rimanere concentrati a monitorare un automa che fa le cose al posto nostro. Quando la concentrazione non è più strettamente necessaria(nonostante sul libretto ci sia scritto il contrario, se l'autopilot di fatto è capace di condurre l'automobile per 20 o 30 km di autostrada senza intervento umano, è inevitabile l'umano si senta una presenza marginale e non più responsabile al 100%) la mente divaga!

Insomma, sistemi di guida assistita troppo invadenti e pervasivi deresponsabilizzano e incentivano la distrazione. Se questi sistemi fossero infallibili non ci sarebbe alcun problema, ma siccome in realtà sono pieni di bug e limiti tecnici, del tutto inadeguati alla grande complessità della guida su strada, e perciò ogni tanto commettono "errori" grossolani, sarebbe darci un taglio a questa follia, e limitarsi a sviluppare sistemi di sicurezza a misura umana, che incentivino la concentrazione invece di agevolare la distrazione!
Paolo, diciamo che te la do' buona anche perchè non ho il tempo di leggermi tutto il manuale, mi fido certamente di quanto mi dici. Però non riesco a capire come si faccia a non vedere della malizia in tutto questo, va bene il non essere complottisti, però l'alternativa non devono neanche essere le fette di salame sugli occhi fino alla prova provata.
I fatti sono che molta gente, manuale o meno, indotta o meno, finisce col scambiarlo per un vero autopilota, e Musk (al meglio che se ne possa pensare) cavalca l'onda (secondo altri ha addirittura responsabilità dirette), mentre si potrebbe fare ben altro per incrementare ancor di più la sicurezza, gli esempi non sono mancati, però questo svelerebbe l'inganno. Finchè vende, la sperimentazione va avanti sulla pelle degli utenti, o di chi ci ha a che fare, come nel caso di Uber. E la cosa potrebbe anche starmi bene, però, se si vuole fare sperimentazione su qualcuno, bisognerebbe pagarlo per il disturbo, e non viceversa; aggiungo anche che l'atteggiamento da "quando qualcuno si fa male peggio per lui, era stato avvertito" sarà pure una legittima politica commerciale, ma moralmente è vergognoso.
@Tommy
"bello schifo il traction control, credevo che si potesse dare sempre tutto gas e poi si gestiva lui, se devo lo stesso parzializzare tanto vale"?
Cosa non mi hai fatto ricordare... 2011 nevicata "abbondante" (10cm eh non 10mt) da queste parti - code piu' lunghe della strada che conteneva.
Gente che per partire in salita (piu' di uno!) preme il gas fino in fondo "tanto ho il controllo trazione".
Stesse persone di prima con la macchina nelle posizioni piu' strane...
@Paolo Attivissimo

In guida manuale, i movimenti involontari del piede sull'acceleratore fanno accelerare e decelerare costantemente un'auto elettrica. La reazione istantanea del motore genera quindi una sorta di rollio longitudinale che a me scatena una nausea da movimento incontenibile (e non sono il solo).

Beccheggio? :-P

A parte tutto, come hai risolto il problema sulla iOn? Sicuramente non ti sei fatto quasi 1000km in un mese facendoti venire il mal di mare tutte le volte.

-Questo- potrebbe essere un problema serio per le elettriche. D'altronde, se il sistema automatico è in grado di evitarlo, esiste sicuramente il modo di costruire un comando manuale che permetta la stessa cosa (la prima cosa che mi viene in mente è un pedale meno sensibile alle variazioni minime).


Attivi l'AP e invece pare di essere su un treno incollato al binario. Oltretutto l'AP riduce i consumi perché evita accelerazioni e rallentamenti.


Questo lo fa qualsiasi sistema di Cruise Control adattivo; perché usare il termine "AP"?

Sui consumi del Cruise Control forse non è stata detto tutto; magari è che sull'auto elettrica è davvero più efficiente e comunque migliore del piede umano, ma sulla mia a benzina il Cruise Control adattivo, che pure è -molto- parco, può essere battuto con una guida manuale dedicata. Non che non sia utile, consigliato e non faccia quello che dici; assoutamente sì: non è però il massimo che si possa fare in termini di riduzione dei consumi, perché il suo scopo è ovviamente diverso.
SirEdward,

Beccheggio? :-P

Grazie, non mi veniva il termine corretto.


A parte tutto, come hai risolto il problema sulla iOn? Sicuramente non ti sei fatto quasi 1000km in un mese facendoti venire il mal di mare tutte le volte.

La iOn non ha il cruise control, ma è molto più "morbida" in accelerazione/decelerazione rispetto alle Tesla e oltretutto la guido io, per cui soffro molto meno. Credo che c'entri il fatto di sapere in anticipo che sta per arrivare l'accelerazione/decelerazione.


se il sistema automatico è in grado di evitarlo, esiste sicuramente il modo di costruire un comando manuale che permetta la stessa cosa (la prima cosa che mi viene in mente è un pedale meno sensibile alle variazioni minime).

Sì, penso che si possa risolvere via software.


Questo lo fa qualsiasi sistema di Cruise Control adattivo; perché usare il termine "AP"?

Solo perché mi stavo riferendo alla mia esperienza sulle Tesla.

può essere battuto con una guida manuale dedicata

Non ne dubito, ma ci vuole bravura e voglia di applicarsi. Non tutti ce l'hanno, a partire da me :-)
Il manuale della Tesla dice che "non ha un sistema di guida autonoma". E ok. Ma quanta gente, onestamente legge il manuale?

Poi è purtroppo una tendenza recente quella di far uscire prodotti "as is" e poi lasciare che i clienti o gli utilizzatori trovino i difetti.
se il sistema automatico è in grado di evitarlo, esiste sicuramente il modo di costruire un comando manuale che permetta la stessa cosa (la prima cosa che mi viene in mente è un pedale meno sensibile alle variazioni minime).

Sì, penso che si possa risolvere via software.


Da quello che so, si fa da tempo. Gli acceleratori aprono il gas in base a come sono programmati (ormai sono tutti elettronici). Alcuni aprono di più il gas nel "primo tratto" (si può dire così?) del percorso del pedale e meno successivamente.
In questo modo si ha uno scatto più pronto e ci si districa meglio nel traffico in città (ovviamente se il motore ha un minimo di coppia ai bassi regimi) e si ha l'impressione di avere un'auto più potente di quello che effettivamente è.
@Paolo Attivissimo

In guida manuale, i movimenti involontari del piede sull'acceleratore....
Parkinson?
@schizzo

Il rapporto tra le dimensioni di due campioni non mi dice molto in questo caso. Che i dati di un campione siano tot volte quello di un altro dice nulla sulla validità di entrambi.

Assolutamente d'accordo, mi sono spiegato male io.
Quello che volevo dire con il confronto fra le dimensioni dei campioni, era in linea con la considerazione che già SirEdward aveva fatto, ovvero che si stavano confrontando due eventi (incidenti "Tesla" e "non Tesla") partendo da campionamenti diversi (sia per dimensioni ma anche per tipologia).

Nel tuo esempio i 2 lanci fanno un risultato incerto per l'errore relativi alto. L'errore in questo caso e dato dalla Statistica Poissoniana quindi è passerò alla radice quadrata del valore quindi hai 2±1.4, con errore relativo 1.4/2=0.7 è un rapporto segnale/rumore di 1.4
Ovvero è poco sicuro perché tu nel tuo esempio hai deliberatamente preso un numero basso di dati.


Certamente, ho appositamente estremizzato l'esempio, proprio in quanto voleva essere un esempio ..

Più che miglia, prendiamo tragitti da 50mi, quindi 100.000.000, che comporta un rapporto segnale/rumore di 10.000 che è molto alto! Credimi che sono ricercatore/professore universitario

Se tiro migliaia di volte una moneta avrò senza dubbio una buona rappresentazione, e non cambia nulla che lanciandola milioni di volte sia ancora meglio. Con la tua idea nessuna ricerca ha dati sufficienti perché una col doppio sarebbe meglio.


Assolutemante si; ciò non toglie però che (fatte salve tutte le considerazioni di cui sopra) l'errore statistico relativo agli incidenti "Tesla" è di due ordini di grandezza maggiore rispetto all'altro (poi sono d'accordo con te, parliamo di 10e-6 contro 10e-4)
Premessa: ho scritto e rinuciato ad inviare più volte questo commento per cercare le parole giuste.
Anni fa ho letto un bel libro, dovrei riprenderlo, si chiama "La Caffettiera del Masochista" di Donald Norman, che spiega abbastanza bene che in questi casi non si dovrebbe MAI tirare fuori l'errore umano.
Aggiungo che la sicurezza di un sistema non può essere affidata ad un manuale. Affidarla ad un manuale è intrinsecamente un errore, una stupidaggine. Mi rendo conto, oggi i manuali debbono spiegare bene che non va messo il gatto ne in lavatrice ne nel microonde. Ma qui è una roba differente.
Non ho statistiche ma sarei pronto a scommettere che buona parte degli incidenti automobilistici avvengono perché uno dei conducenti si distrae. Telefoni, navigatori, sigarette, colpi di sonno, mangiare, etc ....
Bene, qui abbiamo un sistema che pur non garantendo alcunché e chiarendo che devi stare attento come se guidassi una macchina qualsiasi ti permette di distrarti, salvo poi scriverti mille volte birichino non lo devi fare. Un sistema di assitenza alla guida deve aiutarti a stare attento, come il pedale dell'uomo morto dei treni, non aiutarti a distrarti e poi dirti che non devi farlo.
Personalmente per poco non mi ammazzavo anche per colpa del cruise control, che oramai, da solo in auto, non uso più.
Detto questo non mi sento per nulla antitecnologico, solo che credo che la direzione intrapresa da parte della ricerca nel campo dell'asissitenza alla guida sia discutibile e rivolta alla creazione di un prodotto cool e non alla reale sicurezza stradale.
Se, come detto da altri, la ricerca fosse indirizzata ad esempio alla gestione dei colpi di sonno, fattispecie indubbiamente molto complessa, ed applicata ai mezzi pesanti, potremmo in maniera consistente ridurre il rischio nelle nostre strade.

Debbo prima di tutto ringraziare Paolo per il tempo e la pazienza che ha investito per cercare di chiarire le idee ad un neanderthaliano come il sottoscritto. Però, pur comprendendo e accettando i punti circa il cambio automatico (che ho usato sulle mie ultime quattro vetture, peraltro con risultati diversi a secondo della loro "logica", che varia molto a seconda di tipo e fabbricante) e sul cruise control, non sono del tutto convinto. Le mie obiezioni sono esattamente quelle espresse da Andrea, ed è quindi inutile che sprechi spazio per ripeterle.

Il mio punto di vista rimane questo: un sistema come quello della Tesla, che è in grado di condurre la vettura da solo ma non in sicurezza, e che perciò richiede comunque tutta l'attenzione del conducente, non è in nessun modo un ausilio alla guida: è invece solo "furbata" commerciale (starei per dire una truffa da magliari), che - qualsiasi cosa dica il manuale - suggerisce qualcosa che in realtà non è in grado di mantenere, rischiando di indurre l'utente a porsi in situazioni di grave pericolo.

Ben vengano certi automatismi (peraltro presenti in non poche altre vetture) per allarmi o quando necessario frenate o arresti d'emergenza ecc. se il sistema di accorge che il conducente sta facendo qualcosa di terribilmente sbagliato, e si sostuisce a lui. Ma sistemi come l'autopilot di Tesla temo peggiorino la sicurezza complessiva anziché migliorarla, e credo che la loro commercializzazione dovrebbe essere proibita.
E' una serie combinata di fattori.
Guardando il video in notturna devo ammettere che quell'ostacolo ha confuso anche me, seduto alla scrivania e avvisato. Messo lì in mezzo e così poco segnalato, di notte, è facile sbatterci contro.
Però è anche vero che gli ausili alla guida servono proprio lì dove cala l'attenzione del guidatore. Altrimenti sono solo un doppione fastidioso (e pericoloso).
Chiamarlo Autopilot è stata un'astuta mossa commerciale, che però adesso rischia di ritorcersi contro Tesla stessa perché non mantiene ciò che promette.
Non sono tanto d'accordo con il paragone rispetto agli aeromobili.
Anzitutto un brevetto di volo non è una passeggiata come prendere la patente, e soprattutto chi li conduce lo fa "per lavoro", prendendo la cosa molto seriamente e con un livello di attenzione sicuramente maggiore.
Quindi "autopilota" per un professionista ha un senso che non ha (e non può avere) per l'uomo comune, a cui non è richiesta la stessa precisione e attenzione.
Quando ci si rivolge a un pubblico generalista la cosa principe da tenere a mente è che chi si siede alla guida non è un professionista e il veicolo va tarato di conseguenza.
Nessuno di noi si sognerebbe di dire "imparate a frenare invece di usare l'abs" (nonostante sia una tecnica arcinota e arciconosciuta ai professionisti della guida da molti decenni).

OFF TOPIC

"chi compra un q7 pensa di avere una berlina seria, non un mezzo dalle reazioni di un furgone da lavoro quale e'"

Mah.
Quando lo guardavo avevo la stessa opinione.
Avendolo avuto per decine di migliaia di km, le uniche cose strane ("da furgone") che ho notato sono l'altezza da terra e la frenata - che richiede un po' di pratica per chi vuole evitare di far venire il mal d'auto ai propri passeggeri.
Per il resto è una spanna sopra quasi tutte le altre vetture, berline comprese.
Con delle buone gomme si può andare tranquillamente a quasi 200 orari sui curvoni delle autostrade, chiacchierando amabilmente del carico stivato nei due metri di bagagliaio. Anche se fuori diluvia.
Il doppio quadrilatero al retrotreno è tarato benissimo.
In onestà è un'auto che costa, ma vale fino all'ultimo centesimo.
Inizio a dubitare sia solo incapacità.

Leggete come il solito "giornalista" di Repubblica riporta i fatti della Bay Area:

"Tesla ha spiegato che Huang non poggiò le mani sopra al volante fino a 6 secondi prima dell'incidente, cosa che però non ha impedito che l'auto urtasse contro lo sparti-traffico."

http://archive.is/BaQZz

Ma come fa? Quanto di mer*a lavorano oramai le testate giornalistiche?

E non mi riferisco a distrazioni quali "Tooyota", o "Dan Francisco". Quelle son sciocchezzuole che in un blog amatoriale si posson tranquillamente trovare.
Kaguya,

Con delle buone gomme si può andare tranquillamente a quasi 200 orari sui curvoni delle autostrade, chiacchierando amabilmente del carico stivato nei due metri di bagagliaio. Anche se fuori diluvia.

200 km/h in curva sotto la pioggia, e poi ci preoccupiamo dell'Autopilot?
Kaguya,

Anzitutto un brevetto di volo non è una passeggiata come prendere la patente, e soprattutto chi li conduce lo fa "per lavoro", prendendo la cosa molto seriamente e con un livello di attenzione sicuramente maggiore.
Ci sono anche i piloti privati, che portano aerei con autopilota senza essere professionisti.
Vero che l'addestramento e il controllo è tipicamente più presente (se non altro ogni 2 anni c'è un check con istruttore).


[quote-"Paolo Attivissimo"]200 km/h in curva sotto la pioggia, e poi ci preoccupiamo dell'Autopilot?[/quote]

Touché!
"Vero che l'addestramento e il controllo è tipicamente più presente (se non altro ogni 2 anni c'è un check con istruttore). "

Non solo. Quando voli, atterraggio e decollo esclusi - che però sono MOLTO regolamentati e durano pochi minuti per l'aviazione generale (=privata) - i tempi di reazione necessari per riprendere in mano la situazione sono molto più rilassati rispetto al guidare un'auto. Non a caso il brevetto in molti paesi lo si può ottenere prima della patente d'auto. Anche "l'infrastruttura" è molto meglio mantenuta e controllata perché il rischio di lasciarci le penne in caso di guasti è molto più percepibile.
"200 km/h in curva sotto la pioggia, e poi ci preoccupiamo dell'Autopilot?"
Più o meno quanto ci preoccupiamo delle sette posti che "bruciano al semaforo una sportiva" (cit.) :-P
E qui vale sempre, stavolta a cuor pesante, la battuta su Nietzsche e Dio.
Il banking delle curve in Autobahn le rende adatte per una guida veloce, e il veicolo permetteva. Non c'è scandalo né inganno.
Chiaro se uno si fa l'immagine mentale del pandino sulla salerno-reggio calabria gli viene un coccolone solo al pensiero.

Guasconate e divertimenti a parte, ci ho pensato parecchio prima di scrivere.
E in effetti il paragone con l'ABS (o l'ESP) è il meno strampalato.
Se si fosse chiamato con qualche sigla o nome in automobilese, tipo ACC - Adaptive Cruise Control (che a proposito, è il nome commerciale di Audi per un "semplice" misuratore di distanza e adattatore di velocità), o NSS - Nissan Safety Shield, probabilmente a nessuno sarebbe saltato in mente di alzare un simile polverone.
Per esempio alcun casino, nemmeno sulle riviste di settore, è stato fatto sull'accrocchio di sensori Toyota con un acronimo impronunciabile e che fa più o meno (molto meno) la stessa cosa.
Perché è una cosa che il grande pubblico ignora e vuole ignorare.
Tesla ha voluto rompere questa barriera.
E' innegabile che Musk ha giocato sul lato emotivo della tecnologia ("c'ho il giocattolo figo; me so fatto Kitt per davero") e quindi adesso gli tocca subire critiche molto emotive ("sì ma ce vole sempe l'omino nascosto dietro il sedile pe' guidalla; sennò te c'ammazzi". "e allora che razza de kitt è?! è 'na sola!").
Questo spiega il livore e lo scontro da stadio su un tema tutto sommato squisitamente tecnico e molto settoriale. Col morto di mezzo, poi, ognuno c'ha la verità in tasca e gli tocca di diffonderla.
Musk l'ha messa sul piano della semplificazione. Nel bene e nel male.

Non mi viene d'inquadrarla diversamente.
Dire "ma leggiti il manuale, webete" è una soluzione solo in parte.
Vuol dire "portati all'altezza del mezzo che guidi".
Ed è un discorso che quelli cresciuti a pistoni, come direbbe il buon Paolo, potrebbero fare all'acquirente medio dell'auto di oggi: "ma impara a controllarla una sbandata, invece di lagnarti dell'ESP". Et cetera.
Ma in tutta franchezza, in un contesto di motorizzazione di massa, non mi sembra una soluzione né ragionevole, né praticabile.
@Kaguya
Ed è un discorso che quelli cresciuti a pistoni, come direbbe il buon Paolo, potrebbero fare all'acquirente medio dell'auto di oggi: "ma impara a controllarla una sbandata, invece di lagnarti dell'ESP". Et cetera.
Ma in tutta franchezza, in un contesto di motorizzazione di massa, non mi sembra una soluzione né ragionevole, né praticabile.

In tutta onestà, io auspico da anni esami della patente più rigidi, che dimostrino davvero che uno sa "guidare", e non solo "andare in auto". Cioé che appunto è capace di gestire una sbandata, ma anche un panic stop e tutte le altre situazioni che possono benissimo capitare nella guida di tutti i giorni.

Non so se tutti lo sanno, ma se si vuole guidare una moto non c'è "la" patente: ce ne sono ben quattro categorie, con scaglioni in base alla potenza (e in due casi alla cilindrata). In questi esami, oltre alla normale guida su strada, bisogna fare delle prove di guida tra i coni. Inoltre, ogni patente impone dei requisiti minimi crescenti su cilindrata e potenza (e recentemente anche peso) per la moto da utilizzare all'esame.

Ora, l'esame è tutto fuorché estremo. Anzi, lo trovo facilotto. Ma è decisamente più selettivo rispetto a quello per la patente B, dato che si può benissimo essere bocciati già alle prove tra i coni (anzi, fanno molte più vittime quelli rispetto alla prova di guida su strada). Inoltre l'avere questi scaglioni significa che se vuoi guidare un bolide, non puoi farlo a 19 anni ma almeno a ventiquattro (oppure a venti ma dopo due anni di esperienza con moto "intermedie" e solo dopo un ulteriore esame pratico, non c'è decadenza automatica dei limiti come per la B).

Se avessi il potere di decidere, io applicherei seduta stante lo stesso metodo anche alle auto. Non è un sistema perfetto, ma qualche idiota dalle strade lo leveremmo. E avremmo meno gente legalmente autorizzata a guidare certi macchinoni, e quindi più gente che se coinvolta in incidenti dovuti alla propria pirlaggine subirebbe conseguenze assai più pesanti di adesso.
"Tesla ha voluto rompere questa barriera."

I sistemi che hai citato non sono in grado di negoziare un incrocio, scegliere quale strada prendere, sorpassare un altro veicolo, o sono integrati con il navigatore per guidarti autonomamente da A a B. Dai, torniamo coi piedi per terra, il sistema disponibile sulle Tesla è un altro pianeta rispetto agli altri.

Detto questo trovo che sono state fatte considerazioni abbastanza convincenti da entrambe le parti. Il sistema di "autopilota" Tesla è una grande innovazione, ma effettivamente non è ne carne ne pesce. Ho guidato auto con dei semplici control cruise adattiva ed effettivamente mi incoraggiavano a dire "vediamo che succede se...". Non so se alla lunga anche creino noia e distrazione eccessiva.

I manuali delle auto non li legge nessuno (bè, quasi: almeno io li leggo, ma esclusivamente per una mia forma mentis personale...). Il che può incoraggiare effettivamente qualcuno ad esagerare. Se non si è quel tipo di persona i sistemi del tipo Tesla sono un grande aiuto alla guida. Se migliorino la sicurezza per le persone che guidano seguendo le norme ed in sicurezza, non ne sono più così sicuro.

Proteggono la vita di chi è imprudente, o di chi guida ubriaco o di chi si mette alla guida e cade addormentato? probabilmente si. Bisogna attendere per arrivare a delle conclusioni sufficientemente certe.
Intanto anche qui in Italia le cose si muovono. Torino permetterà i test per le auto autonome.
"I sistemi che hai citato non sono in grado di negoziare un incrocio, scegliere quale strada prendere, sorpassare un altro veicolo, o sono integrati con il navigatore per guidarti autonomamente da A a B. Dai, torniamo coi piedi per terra, il sistema disponibile sulle Tesla è un altro pianeta rispetto agli altri."

Non credo di aver sostenuto il contrario.
Anzi.
Provo a dirlo più chiaramente: la discussione è abbastanza emotiva e poco centrata sui fatti perché oggettivamente Musk ha impostato la presentazione al pubblico della guida autonoma fuori degli schemi classici dell'automotive, notoriamente tecnici e prudenti.
Marciando a passo d'oca sul sense of wonder, ha fatto innegabilmente passare il messaggio che la macchina "guidasse al posto tuo".
Il sistema di guida di Tesla ha dei limiti?
Come tutti i sistemi, da che mondo è mondo.
Il punto è che Musk l'ha venduta come una cosa "io so meglio dell'altri".
Si è puntato da solo i riflettori in faccia.
E adesso gli tocca che mezzo mondo gli conti le pulci sotto quei riflettori.
A voler essere sintetici: noblesse oblige.

Se ne volete la controprova, pensate allo scandalo Takata.
In quanti ne hanno sentito parlare?
Forse tre o quattro persone su cento.
Succede che pezzi di airbag di questa Takata erano difettosi e pare abbiano ammazzato undici persone.
E la povera Toyota, che si rifornisce da loro, ha dovuto richiamare milioni di veicoli.
E così molti altri costruttori.
Stimati sono circa 50 milioni di veicoli coinvolti.
Undici morti.
Cinquanta milioni di veicoli.
E i giornali s'incazzavano già l'anno scorso per Musk.
C'è una distorsione enorme dei contorni del problema.
E io credo - ma magari sbaglio - che è una distorsione provocata dall'annuncio roboante di Musk e dalla valanga di novità che oggettivamente la Tesla ha portato nell'automotive.

"In tutta onestà, io auspico da anni esami della patente più rigidi"
Nì.
D'istinto ti darei ragione: bisogna essere all'altezza del veicolo che si conduce.
Ma è solo metà del problema, perché mi rendo conto che su larga scala è un ragionamento che non può funzionare.
E' molto più semplice mettere le ciabatte che riempire di tappeti il mondo.
Tradotto: è molto più razionale e sicuro rendere i veicoli adatti a una pletora di impreparati che rendere tutti dei mezzi Schumacher.
Non tutti hanno il tempo, la capacità e la voglia di mettersi lì a cercare lo schema delle sospensioni posteriori e a cercare di capire se, come e quando gestire il trasferimento di carico in modo ottimale. E' molto più efficiente e sicuro mettere un cippino che frena le ruote esterne ed evita il ribaltamento. Poca spesa, tanta resa. E tanta sicurezza.
A me urta questo atteggiamento paternalista perché stimola l'idiozia e atrofizza l'autoresponsabilità, ma purtroppo se si vuole una massificazione sicura a un prezzo ragionevole mi pare l'unica via percorribile.
@Kaguya:
Tradotto: è molto più razionale e sicuro rendere i veicoli adatti a una pletora di impreparati che rendere tutti dei mezzi Schumacher.
Se tutto ciò che hai bisogno di guidare in vita tua è una Punto, non serve diventare un piccolo pilota. Farai un esame più soft, con mezzi più semplici da gestire. Vuoi guidare qualcosa di più? Dimostrami che sei capace di usarlo.

È l'utente che deve diventare più intelligente e salire fino al livello del device, non il contrario. Altrimenti l'utente non impara, o se aveva imparato dimentica e si instupidisce. Lo abbiamo notato (penso) tutti con Internet e gli smartphones, ma vale in ogni campo.

Relativamente alle auto, Guido Pisano ha fatto un ottimo esempio: grazie al traction control abbiamo salvato delle vite e dei paraurti, ma abbiamo anche partorito una moltitudine di inetti che usano il gas come se fosse un interruttore on-off. Il che può andare bene (più o meno) se hai una Punto Sole, ma non se hai 200 cavalli sotto al sedere. Peccato che 'sta gente sia pienamente titolata a comprarsi qualsiasi auto voglia, quindi il giorno in cui le circostanze impongono un po' di abilità di guida (banalmente: se nevica o piove tanto), 'sti qua si fanno male... e TI fanno male se hai la sfortuna di incontrarli per strada.

Ergo, se vuoi metterti 200 cavalli sotto il sedere prima mi dimostri che sai gestirli in determinate circostanze. Non vuoi fare una prova d'esame così impegnativa, o non sei in grado di superarla? Che Punto Sole sia. Ti fa schifo? Problema tuo, non degli altri utenti della strada...
Non è nuovo, è di un anno fa ed è pure in spagnolo (per chi non lo parla ci sono i sottotitoli in inglese), ma l'ho visto adesso e ve lo segnalo, mi pare interessante, visto che questa casistica di incidente, ancora non mortale, si era già presentata:
https://youtu.be/PSc2mJdSNSg
Da fiero guidatore di Punto da 23 anni, sono pienamente d'accordo con Tommy the Biker.
In realtà, nessuno ha davvero bisogno di guidare qualcosa di più di una Punto... ammesso che quel qualcosa esista :-)
@contekoffio
Per spostarsi, salvo esigenze molto particolari, hai pienamente ragione.

Però c'è anche chi vive l'auto non solo come un mezzo per andare da A a B, ma anche come un mezzo ludico. A me la cosa sta benissimo; anzi, su due ruote questa condizione la vivo proprio.

Però gradirei avere qualche garanzia extra sulla sua abilità di guida, prima di dargli in mano un'auto (o ancora peggio una moto) sportiva...
Contekloffio: "In realtà, nessuno ha davvero bisogno di guidare qualcosa di più di una Punto..."

ehm... ti sfido ad andare dove lavoro io con una Panda :) :) :)

Scherzi a parte (e ho capito che stai scherzando, eh!) le esigenze di persone diverse possono essere tremendamente... diverse tra loro. Se hai 5 figli un SUV può essere una buona idea. Se devi viaggiare in città con strade molto dissestate le ruote da 13 o 14" possono essere insufficienti. Se devi andare tutti i giorni da Roma a Milano certe comodità possono essere fondamentali (soprattutto un veicolo molto silenzioso).

In particolare le nuove Fiat Panda sono ancora piuttosto scarse in quanto a sicurezza. Non parliamo poi delle vecchie (non so quale modello sia la tua). RItengo questo un motivo di inestimabile valore per comprare un'auto recente.
@pgc:
Parlando di Fiat e di sicurezza: la Punto attualmente in concessionaria ha preso zero stelle al test NCAP. Zero. Record assoluto, ovviamente in negativo.

Questo perché nel tempo l'asticella è stata progressivamente alzata, mentre invece quell'auto è rimasta ferma ai canoni di oltre dieci anni fa (quando uscì la Grande Punto per capirci).

Ora, questi test vanno presi cum granu salis, ovviamente. Però quando si circola su auto di quell'età, o magari anche più vecchie, due domande bisognerebbe farsele. E non solo sulle auto, anzi, sulle due ruote la questione è ancora più marcata secondo me. Tanto per fare un esempio comprensibile a tutti: nel 2006 l'ABS su una moto era quasi fantascienza, perfino per le top gamma; nel 2016 è diventato obbligatorio per tutti i nuovi modelli, anche per quelli da passeggio.
Ehi io parlavo di Punto, non di Panda :-D

Comunque al di là dello scherzo e delle esigenze particolari che naturalmente possono esserci, sono davvero convinto che per la maggior parte degli automobilisti una Punto (o una Golf, o una Yaris, non è una questione dello specifico modello) sia assolutamente sufficiente. Va bene per la città, permette di affrontare viaggi di qualche ora senza grossi sacrifici di comfort, consuma e inquina relativamente poco.

Poi ovviamente ognuno è libero di spendere i propri soldi come preferisce... anche per un macchinone da 200 cavalli da guidare a 30 all'ora fra i vicoli di Roma :-)
Pgc,

Potresti rimanere stupito di dove puoi andare con la Panda 4x4. La vecchia e vera Panda 4x4.

:D
Contekloffio,

hai ragione! Letto "Panda" dove stava scritto "Punto".... Dormito poco stanotte. :)

Stupidocane,

sono d'accordo che la Panda era una 4x4 veramente straordinaria. Ricordo una prova comparativa in UK con un "buon" range rover in cui non risultava "così" inferiore, tutto considerato.

Tuttavia, oltre i 4,000 m di altezza i motori a combustione interna soffrono. La potenza a 5200 m è dimezzata, il motore non sale oltre i 3500 rpm, a meno che non si tratti di turbocompressi. In genere siamo costretti ad usare motori 5000 o anche 6500 cc. (Dodge RAM, Ford F150). Per certi lavori off-road poi si sta veramente al limite.

p.s. Giorni fa ho trovato parcheggiata nell'hotel dove dormo, in Atacama, un Defender con targa italiana: una coppia sulla sessantina da Torino che aveva importanto la loro Land Rover per un viaggio di 6 mesi tra Cile, Argentina, Perù e Bolivia. Hanno avuto comunque un sacco di problemi a fare la strada che faccio di solito per salire al sito: Il Defender si è quasi fermato... La parte asfaltata in basso intendo, non quella bianca ad alta quota.
"Tuttavia, oltre i 4,000 m di altezza i motori a combustione interna soffrono. La potenza a 5200 m è dimezzata, il motore non sale oltre i 3500 rpm, a meno che non si tratti di turbocompressi. In genere siamo costretti ad usare motori 5000 o anche 6500 cc. (Dodge RAM, Ford F150). Per certi lavori off-road poi si sta veramente al limite.

p.s. Giorni fa ho trovato parcheggiata nell'hotel dove dormo, in Atacama, un Defender con targa italiana: una coppia sulla sessantina da Torino che aveva importanto la loro Land Rover per un viaggio di 6 mesi tra Cile, Argentina, Perù e Bolivia. Hanno avuto comunque un sacco di problemi a fare la strada che faccio di solito per salire al sito: Il Defender si è quasi fermato... La parte asfaltata in basso intendo, non quella bianca ad alta quota."

Interessante davvero. Stiamo parlando di benzina, diesel o tutti e due? Perchè ormai di diesel non turbocompressi non è che se ne vedano molti, e quel Defender aveva molto probabilmente il turbodiesel Ford da 2.4 litri (salvo che fosse un modello anni '80-'90).
ebonsi,

parlo di qualsiasi motore, ANCHE turbo, seppure questi risentono di meno degli altri due. Di motori diesel non turbocompressi c'è per esempio quello del mio pickup. Il mercato dell'auto dei paesi come il Cile è MOLTO diverso da quello dei paesi sviluppati o comunque popolosi. Tutte le marche hanno modelli "downgraded" in catalogo rispetto a quelli disponibili in Europa, Nord America etc. Le versioni importate sono poche (spesso solo una).

"quel Defender aveva molto probabilmente il turbodiesel Ford da 2.4 litri"

Credo di si. Mi hanno detto che si tratta del motore dei Ford Transit. Tra l'altro hanno spaccato il cambio durante il viaggio, il che li ha tenuti fermi un mese in quanto non esiste una rete di vendita e assistenza Land Rover in questo paese (peccato).
AVVISO ALLA MODERAZIONE: questo è un OT, che più OT non si potrebbe. Scrivo solo perché è stato sollevato un punto che mi interessa, ma che è estremamente marginale rispetto ai veri soggetti della discussione. Se quindi si ritiene che questo messaggio rischi di mandare in vacca il tema principale, cestinatelo tranquillamente.

@pgc: Ach so. Sono ovviamente al corrente che i motori aspirati soffrono di perdite di potenza ("derating") in funzione dell'altezza e della temperatura, per cui condizioni ambientali come quelle di Atacama sono il peggio del peggio. Ero solo curioso circa gli effetti (o i mancati effetti) del turbocompressore a gas di scarico. Il quale turbo venne introdotto in ambito aereonautico, in aggiunta al "normale" compressore meccanico, non tanto per aumentare la potenza (questo era il compito del compressore meccanico), quanto appunto per consentire il recupero di potenza alle alte quote. Per dire, il motore P&W R2800 del P-47 americano manteneva l'identica potenza di 2000hp a 2700 giri/min da 2500 a 25000 piedi, mentre il DB601 tedesco (ovviamente con compressore meccanico, ma senza turbo) scendeva da 1100hp/2400 giri/min al livello del mare a 800hp a 5500m e poco più di 500 a 7500m. Per questo le osservazioni circa il funzionamento dei diesel turbo in condizioni come quelle delle Ande mi incurioriscono parecchio.
Mi informo meglio e ti dico, ebonsi. Abbiamo certamente problemi di derating anche con i generatori elettrici (turbodiesel). Calcoliamo tipicamente un 33%.

Mio errore: il motore del Defender era un Diesel aspirato, anche se Ford Transit 2.4L come dicevi.