skip to main | skip to sidebar
88 commenti

Tesla Model 3 si schianta, conducente incolpa l’Autopilot

Ultimo aggiornamento: 2018/05/27 15:00.


YouYou Xue, un proprietario di una Tesla Model 3 americana che stava girando l’Europa per un tour personale per presentare l’auto ai tanti europei che l’hanno prenotata, ha avuto un incidente del quale incolpa il sistema di guida assistita, denominato Autopilot, mentre procedeva verso sud sull’autostrada E65 in Grecia, vicino a Florina, diretto verso Kozani. Il conducente è incolume e l’auto non ha preso fuoco. Non sono coinvolte altre auto.

Secondo quanto postato da Xue, il veicolo procedeva a 120 km/h con l’Autopilot attivo quando ha sterzato improvvisamente verso destra senza preavviso e si è scontrata con lo spartitraffico in corrispondenza di un’uscita. Una ruota è completamente distrutta e la portiera del conducente non si apriva correttamente.






Electrek ha raccolto un’altra dichiarazione di Xue, che dice che l’auto ha sterzato verso destra cinque metri prima che la fiancata sinistra colpisse il lato destro dello spartitraffico visibile in questa foto:



Lo spartitraffico è visibile a destra della corsia in quest’altra foto:



Xue ha segnalato l’incidente direttamente a Elon Musk via Twitter, parlando di malfunzionamento dell’Autopilot:


Electrek ha raccolto una dichiarazione di Tesla che traduco qui sotto:

“Anche se apprezziamo l’impegno di You You Xue nel far conoscere la Model 3, era stato informato che Tesla non ha ancora una presenza in Europa orientale e che lì non sono disponibili connettività o assistenza per i veicoli. Inoltre la Model 3 non è ancora stata approvata e omologata per la guida al di fuori degli Stati Uniti e del Canada. Anche se non siamo stati in grado di recuperare dati dal veicolo, visto che l’incidente si è verificato in una zona non supportata, Tesla è sempre stata molto chiara che il conducente deve restare responsabile dell’auto in ogni momento durante l’uso dell’Autopilot. Ci dispiace che sia avvenuto questo incidente e siamo contenti che You You sia salvo.”


Per quel che ne so, questo è il primo incidente in Autopilot di una Model 3.

La prima impressione è che l’Autopilot, basato in gran parte sul riconoscimento visivo della segnaletica orizzontale, abbia seguito per errore le linee bianche di demarcazione della corsia di uscita invece di quelle, più sbiadite, della corsia di marcia e quindi abbia (dal suo punto di vista) “corretto” all’ultimo momento la propria traiettoria prima che il conducente potesse intervenire, ma è solo una congettura.

È tutto quello che so per il momento; aggiornerò questo articolo se ci saranno novità.


2018/05/26 14:40


C’è una dichiarazione più dettagliata di Xue, che cito integralmente qui sotto. Mi manca il tempo di tradurla, ma in sintesi:

  • L’Autopilot era impostato con un limite di 120 km/h, pari al limite di velocità dell’autostrada.
  • La strada a due corsie per ciascun senso di marcia era asciutta, sgombra, ben illuminata, con segnaletica orizzontale ben mantenuta e ben illuminata.
  • Nella zona dell’incidente c’era una biforcazione: la corsia di destra diventava una corsia di uscita. L’auto era nella corsia di sinistra.
  • Circa 8 metri prima dello spartitraffico della biforcazione, la Model 3 ha sterzato improvvisamente e con molta forza verso destra. Xue stava guardando il navigatore sul telefonino ed è stato colto di sorpresa. Ha tentato di correggere la sterzata, ma è intervenuto troppo tardi e così ha colpito di striscio il bordo destro dello spartitraffico.
  • Xue riconosce il fatto che stava tenendo una sola mano sul volante invece di tenerne due come raccomanda Tesla durante l’uso dell’Autopilot e che non stava monitorando costantemente il veicolo, ma dice che l’incidente è stato “causato direttamente da un grave malfunzionamento del software Autopilot, che non ha interpretato correttamente la strada” e “sarebbe potuto capitare a chiunque non si aspetti che un’auto che procede a velocità elevata in linea retta faccia una deviazione improvvisa e senza preavviso dalla propria traiettoria”. Ammette che dopo decine di migliaia di chilometri d’uso dell’Autopilot senza problemi significativi, era diventato troppo fiducioso nel software.
  • Probabilmente la riflessione più significativa di YouYou Xue a proposito dell’idea generale dell’Autopilot è questa: “L’Autopilot viene commercializzato come una funzione di assistenza al conducente che riduce lo stress e aumenta la sicurezza. Tuttavia si può argomentare che la vigilanza necessaria per usare il software, come per esempio tenere entrambe le mani sul volante e monitorare costantemente il sistema per eventuali malfunzionamenti o comportamenti anormali, richiede un’attenzione significativamente maggiore rispetto alla guida normale del veicolo senza usare l’Autopilot.” In altre parole, in questo livello ibrido di guida assistita in pratica il conducente deve monitorare l’auto come se l’avesse messa in mano a un principiante. Inoltre Xue dice che se l’Autopilot implica un rischio, anche modesto, di interpretare male una biforcazione ben segnalata e di andarvi a sbattere contro “non dovrebbe essere testata in beta sulle strade pubbliche e da comuni consumatori”.

Statement
Re: Model 3 crash on Autopilot

Statement regarding collision
26 May 2018
FLORINA, GREECE
Thank you everyone for your kind wishes and messages of support following the collision late yesterday night. This is an absolutely devastating loss for me and brings a great journey to a sudden end.

I was driving southbound on highway E65 near the city of Florina, Greece. I was headed towards Kozani, Greece, where I planned to charge and spend the night. At this time, I was not tired after having 8 hours of sleep the previous night. I engaged Autopilot upon entering the highway after crossing the border between Macedonia (FYROM) and Greece. My Autopilot maximum speed was set at approximately 120 km/h, the speed limit for this highway. The highway was well-marked, well-maintained, and well-lit. The conditions were dry, and there was no traffic around me. The highway was two lanes in each direction, separated by a concrete median. The highway in my direction of travel divided at a fork, with the #2 right lane changing into the exit lane, and the #1 left lane remaining the lane for thru traffic. I was travelling in the #1 lane.

My left hand was grasping the bottom of the steering wheel during the drive, my right hand was resting on my lap. The vehicle showed no signs of difficulty following the road up until this fork. As the gore point began, approximately 8m before the crash barrier and end of the fork, my Model 3 veered suddenly and with great force to the right. I was taking a glance at the navigation on my phone, and was not paying full attention to the road. I was startled by the sudden change in direction of the car, and I attempted to apply additional grip onto the steering wheel in an attempt to correct the steering. This input was too late and although I was only a few inches from clearing the crash barrier, the front left of the vehicle near the wheel well crashed into the right edge of the barrier, resulting in severe damage.

I was not harmed in the collision, and no medical attention has been sought. I was wearing my seatbelt before and during the collision. None of the airbags deployed.

My Model 3 is not drivable as the front left wheel is completely shattered, and the axle is out of alignment. The damage is severe on the left of the front bumper, running to the front lip of the driver’s door, and is moderately severe from there to the left of the back bumper. The vehicle has been towed to a shop, and at 09:00 today, I will accompany the vehicle on a tow truck to Thessaloniki. I am towing the car there under recommendation from locals as more resources are available there, including resources to repatriate the vehicle back to the United States. I will make a decision soon as to whether or not it makes sense to bring this car back to the United States in an attempt to fix it, as the cost to repair the vehicle may substantially exceed its value after repair or salvage value.

Tesla states in an on-screen warning that both hands should be on the wheel when Autopilot is activated. Furthermore, Tesla states that drivers should be paying attention and monitoring the performance of Autopilot at all times. It is likely true that if all drivers obeyed the warnings surrounding this software, that most of the collisions we hear about in the press would never happen. Autopilot has limitations that currently can only be overcome through human intervention. For example, it cannot detect stationary objects, which explains collisions where Model S has rear-ended stationary vehicles parked on the side of the road.

By looking at my navigation and by not having both hands on the wheel, I was not paying full attention to the road while the vehicle was in Autopilot and was not following Tesla’s directions in regards to the correct use of the software. I want to make it clear that I take responsibility in regards to my actions. With that being said, I do not believe that there are many Tesla owners who, when using Autopilot, always keep both hands on the wheel and provide their undivided attention to monitoring the road and the software. This collision was directly caused by the Autopilot software seriously malfunctioning and misinterpreting the road. This collision could have happened to anyone who does not expect a car travelling at a fast speed in a straight line to suddenly and without warning, veer off course. After tens of thousands of kilometres worth of Autopilot driving without major incidents, I have learned to trust the software. Autopilot provides users with a strong sense of security and reliability as it takes you to your destination and navigates traffic on your behalf. Clearly, I had become too trusting of the software.

Autopilot is marketed as a driver assistance feature that reduces stress and improves safety. However, the vigilance required to use the software, such as keeping both hands on the wheel and constantly monitoring the system for malfunctions or abnormal behaviour, arguably requires significantly more attention than just driving the vehicle normally without use of Autopilot. Furthermore, I believe that if Autopilot even has the small potential of misreading a clearly marked gore point, and has the potential to drive into a gore point and crash into a barrier, it should not be tested in beta, on the open road, and by normal consumers. My experience is not unique as many drivers have reported similar behaviour from Autopilot, and a fatal crash involving Autopilot on a Model X may have been caused by a disturbingly similar malfunction.

Many Tesla fans will likely dismiss this as fully my fault, but I implore those who believe so to take a full step back and put themselves in my shoes, as a driver who had used this amazing software for so long, and who could not have anticipated such a sudden and violent jerk of the wheel to one direction while travelling at a fast speed. I hope that my fellow owners will be less dismissive of various incidents regarding Autopilot, and understand that the general public views these severe collisions differently from the owner community. Tesla is moving quickly into the mass market, and potential customers in that segment aren’t going to ask, “why were both of his hands not on the wheel while the car was in Autopilot?”, rather, they are going to ask “why did the car swerve into the gore point without warning?”. The autonomous driving movement as well as the Tesla community can only get stronger when we tackle these questions and resolve the issues behind them.

I love my Teslas and I have owned a Tesla since 2014. I am upset with myself for being part of the growing list of individuals who have been involved in collisions while their Tesla was on Autopilot. I strongly believe in the capability of self-driving vehicles to not only eliminate all collisions on the road but to revolutionise our society. However, malfunctions like this greatly reduce the public’s confidence in a technology that should indeed be tested and rolled out to the public as soon as it is safe for use. I do not want to cause Tesla damage to its brand or image as I wholly support its mission and I am a big supporter. I only hope that Tesla will investigate this incident to determine what went wrong with the software, and make improvements that will enhance other people’s experiences with the car.

I am very grateful to be alive after what could have easily been a fatal collision. This incident was not more severe thanks to an excellent crash barrier on the Greek highway. I want to thank everyone again for your messages of support. I am honoured to have had this opportunity to spread the EV movement not only around my country but around the world. In closing, I want to address some of my critics who have used this collision to laugh at me or to otherwise make fun of this incident. On this road trip, there have indeed been crazy posts where I push the limit of my car and I have only done these things to share my excitement about my Model 3 with others. Please understand that there was nothing out of the ordinary occurring before this collision. I was not sleeping at the wheel, I was not tired, I was not eating at the wheel (which by the way, I have not done before), no videos were being filmed - the vehicle was being operated normally. I am truly sorry and deeply regret that some of my actions have caused a bad taste in people’s mouths, I ask those people to judge my road trip thus far as a whole and not by my craziest or worst moments. I have met with over 8000 people on the road in three continents and 25 countries, and have demonstrated that not only is it possible to drive an EV across the world, it is absolutely exhilarating and brings along great adventure along the way. I have also seen the potential and power of the EV owners community, which when leveraged, can make a great difference in our world. I ask those who disapprove of my actions to reconsider their stance, and I want to see what positive things can come of this collision.

What happens next on this road trip is uncertain. I will keep everyone posted.



2018/05/27 7:05


Ho aggiunto una sintesi della dichiarazione estesa di YouYou Xue. Personalmente, dopo questo incidente, dopo gli altri che ho raccontato in questo blog e dopo le mie esperienze personali con l’Autopilot, se deciderò di dare seguito alla mia prenotazione della Model 3 non acquisterò l’Autopilot e non lo userò finché avrà questo genere di difetto. Le Tesla restano delle ottime auto elettriche a lunga autonomia, con una rete di ricarica senza pari, ma il loro Autopilot non è, a mio parere, pronto per l’uso e rischia di causare incidenti, invece di prevenirli, perché “ragiona” in modo totalmente diverso da un essere umano, per cui condizioni che sarebbero ovvie da gestire per il più scalcinato dei guidatori lo mandano in crisi, e questo rende difficile capire quando potrebbe fallire inaspettatamente.


Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Invia un commento
I commenti non appaiono subito, devono essere tutti approvati manualmente da un moderatore a sua discrezione: è scomodo, ma è necessario per mantenere la qualità dei commenti e tenere a bada scocciatori, spammer, troll e stupidi.
Inviando un commento date il vostro consenso alla sua pubblicazione, qui e/o altrove.
Maggiori informazioni riguardanti regole e utilizzo dei commenti sono reperibili nella sezione apposita.
NOTA BENE. L'area sottostante per l'invio dei commenti non è contenuta in questa pagina ma è un iframe, cioè una finestra su una pagina di Blogger esterna a questo blog. Ciò significa che dovete assicurarvi che non venga bloccata da estensioni del vostro browser (tipo quelle che eliminano le pubblicità) e/o da altri programmi di protezione antimalware (tipo Kaspersky). Inoltre è necessario che sia permesso accettare i cookie da terze parti (informativa sulla privacy a riguardo).
Commenti
Commenti (88)
Hum, legal-babble come risposta.
Nobbello.

Vedremo se c'è una base seria, ma le coincidenze di "autopilota" che sbrocca su spartitraffico cominciano ad essere troppe per continuare ad essere coincidenze.
Paolo, se non l'hai già fatto annulla la prenotazione della tua Tesla e pazienza per la caparra. L'autopilot va bandito a livello mondiale. E' incredibile che non sia gia' stato fatto. Personalmente, non lo userei nemmeno sotto minaccia. Musk e' uno splendido guascone ma qui ci sono gia' troppi morti e feriti.
L'autopilot o come lo si vuol chiamare dovrebbe offrire piu' tranquillità e sicurezza, Tesla non può seriamente pensare di cavarsela ogni volta con il mantra "il conducente deve restare responsabile dell’auto in ogni momento..."

Ammesso sia stata davvero colpa di questo dispositivo di guida assistita, andrebbe bandito immediatamente (io lo vieterei a prescindere per il senso di falsa sicurezza che dà anche quando funziona, perché ovviamente induce a distrarsi: già le persone parlano al telefono e si rifanno il trucco alla guida con le macchine normali, figuriamoci se avessero a disposizione un pulsante con scritto autopilot...)

Sarebbe meglio Musk si concentrasse davvero sull'aumentare la sicurezza invece di presentare "figate" tanto per farlo che si rivelano trappole mortali. Autopilot a parte, nonostante i soldi che ormai tutti i produttori ci stanno buttando dentro, personalmente sono certo (al 100%) che le auto a guida autonoma non saranno mai qualcosa di popolare sulle strade, almeno non finché non sarà sviluppato un droide con un'intelligenza artificale equivalente a quella umana. Nel frattempo è ridicolo pensare seriamente di avere una macchina in grado di affrontare le condizioni di guida reale che un automobilista qualunque affronte ogni giorno. Le caratteristiche delle sedi stradali e soprattutto il comportamento degli altri automobilisti sono fattori che cambiano continuamente e che solo l'esperienza di un autista vero in carne e ossa può affrontare in sicurezza. Come i primi esperimenti hanno dimostrato, neanche tragitti brevi a bassa velocità su strade pre-analizzate metro per metro, sono adatti a una macchina che si guida da se. Ma, banalmente, già solo per il non poter riconoscere il segnale manuale di un agente di polizia o di un mezzo di soccorso che ha bisogno di sorpassare, non potrà mai essere omologato un sistema del genere.

Sognare è bello, ma ogni tanto è bene ricordarsi che non è realtà.
Ciao Paolo,
pare che fosse già in Grecia, "driving southbound on highway E65 near the city of Florina, Greece. I was headed towards Kozani, Greece".
Che risposta da paraculi...
Non so perchè tutto questo accanimento contro l'Autopilot e Tesla... mi reputo un bravo guidatore e dico che spesso in strada preferirei avere davanti a me un sistema Autopilot alla guida piuttosto di uno che non presta attenzione agli altri, che non sa dove va e se ne frega di farlo capire... Ovviamente tralasciamo quelli che usano il telefono messaggiando o altro! E poi la cosa che mi fa più imbestialire è quando in strade a più corsie stanno a sinistra quando a destra è tutto vuoto... CI VADO FUORI!!! L'autopilot presumo che sia ligio a queste regole
Wow, mai letto una dichiaraione (quello di Xue) così garbata, obiettiva e esauriente.
Per aggiungere un po' di contesto, un post di YouYouXue verso fine 2017: https://i.imgur.com/vlJWdIY.jpg

115mph sono oltre 200km/h...
Possiamo dire che è stato fortunato a non essersi schiantato mentre andava a 200 orari?

Questo signore è la prova che un nome vale più di 1000 avvertimenti su un manuale.

Il meccanismo che scatta l'ho già descritto.

Si tende a pensare che gli avvisi sul fatto che "autopilot" non sia un sistema di guida autonoma ci siano solo per ragioni legali, perché il sistema non ha ancora un'omologazione e non perché davvero autopilot è solo un sistema di guida assistita.

Ho ascoltato di persona questi ragionamenti e li ho visti applicare su tutto, dal camion enormemente sovraccarico ("perché tutti i TIR sono omologati per un carico inferiore per ragioni legali", questo è il pensiero comune).

Per questo ritengo che Tesla dovrebbe cambiare nome all'autopilot, dovrebbe pianificare una "strategia di fuga" che gli consenta di chiamarlo in qualche altro modo senza perdere (non troppo almeno) in immagine.
@marco pontello 115 mph sono 184 kmh troppo per quasi ogni paese ma non oltre 200 kmh
La parte finale della dichiarazione del Sig. Xue è ripetuta varie volte.
Mi pare che in Europa per legge devi guidate con ENTRAMBE le mani sul volante e NON guardare lo smartphone.
Dubito possa sterzare così tanto, cmq se aveva dei dubbi sulla direzione, devi moderare la velocità (che mi pare il codice della strada imponga in prossimità di biforcazioni simili).
Quindi non lamentiamoci di incidenti se si infrange il codice a manetta
Autopilot is marketed as a driver assistance feature that reduces stress and improves safety. However, the vigilance required to use the software, such as keeping both hands on the wheel and constantly monitoring the system for malfunctions or abnormal behaviour, arguably requires significantly more attention than just driving the vehicle normally without use of Autopilot.

Non avrei saputo dire di meglio. Se devo stare attento a cosa fa l'autopilot, con le mani sul volante, pronto a reagire in caso di malfunzionamenti, posso guidare da solo, sto sicuramente più rilassato che fare il cane da guardia.
L'Autopilot si può anche non usare, eh!
Il punto è proprio quello che ho sempre sostenuto io:

"Autopilot is marketed as a driver assistance feature that reduces stress and improves safety. However, the vigilance required to use the software, such as keeping both hands on the wheel and constantly monitoring the system for malfunctions or abnormal behaviour, arguably requires significantly more attention than just driving the vehicle normally without use of Autopilot."

Che si chiami "Autopilot" o "driving assistant" per me non fa nessuna differenza. Quando sei alla guida NON DEVI DISTRARTI E NON DEVI RILASSARTI, ma al contrario devi essere sempre ATTENTO E VIGILE. Qualsiasi marchingegno che ti "rilassa" rallentando i tuoi ipotetici tempi di intervento, va bandito dalle auto in circolazione sulle strade pubbliche.

Ben diverso è il discorso per quegli ausili che "correggono" la guida come i vari ESP, che di fatto non "palesano" la loro presenza se non al momento di agire, per cui non provocano in nessun caso calo dell'attenzione o rallentamento delle risposte agli stimoli improvvisi.
C'è qualcosa che mi sfugge.

In cosa il concetto di 'Tesla è sempre stata molto chiara che il conducente deve restare responsabile dell’auto in ogni momento durante l’uso dell’Autopilot'?

A me sembra una caccia alle streghe, quando forse sono i proprietari che credono di avere a che fare con un videogioco della serie Need for Speed...

Se il concetto di 'condurre un mezzo' non rientra nelle vostre corde, lasciate perdere le Tesla e andare in giro con i mezzi pubblici.

Ma davvero fate tem contro un computer al quale imputare le VOSTRE manchevolezze?
Io di girare per strada con gente così ho sinceramente paura.

Prendete il treno Signori, prendete IL TRENO!!!
Scusate ma cosa significa che Tesla non ha connettività e assistenza in Europa orientale? Non mi sembra che la Grecia sia un 'shithole country' benché siano con le pezze al culo da un decennio. Poi in tutta Europa i costi del roaming sono stati aboliti.
@ Marco Pontello: 115 mph = 185 km/h...
Io non capisco e continuo a non capire: di fronte ad un EVIDENTE problema causato da un "autopilot" che tutto e' tranne che "auto" e che Tesla continua a chiamare cosi' per pure ragioni di marketing quando potrebbe usare "driving assistant" o qualsiasi altro nome piu' vicino alla realta', si continua a disquisire di aspetti che - per quanto mi riguarda - sono dettagli, come le portiere che si aprono o no, gli incendi che si scatenano piu' facilmente nelle auto elettriche o in quelle a benzina, le statistiche su quale modello ha piu' problemi e quale meno, etc. etc.
Scusatemi, ma queste per me sono conseguenze e non cause. Per quanto mi riguarda, sono le cause che dovrebbero essere analizzate e capite, non quante auto si incendiano o quante portiere si aprono dopo gli incidenti. La risposta data da Tesla ai dubbi causati da questo incidente e' stata chiaramente scritta a tavolino dal loro ufficio legale per limitare le possibili conseguenze civili e penali, il che non aiuta a creare fiducia nei loro confronti. Le risposte date da Musk, quando gli si chiede perche' si ostini a dare un nome fuorviante al suo "autopilot", sono volutamente elusive e parlano di manuali e cavilli da burocrati, non certo di persone e di sicurezza.
E' questo il futuro?..............
Si, sorry, sono ~185kmh (non so che caspita mi è scivolato sulla tastiera per far uscire 200 e rotti). Ma quello era il meno. L'immagine l'avete vista? Era a quasi 200 all'ora con "piatto" sulle ginocchia, forchetta e coltello. Cioè... Spero sia stata una trovata guascona con una posa durata solo il tempo dello scatto, ma: a) non ci giurerei! b) sarebbe comunque una stupidata estrema.

Link alla photo in questione: https://i.imgur.com/vlJWdIY.jpg

Premetto che non ho una tesla e non ho mai provato l'autopilot. Da quello che ho capito il sistema dovrebbe assistere il conducente accelerando o frenando il veicolo e correggendo la direzione, mantenendo il veicolo all'interno della carreggiata. Visto che dovrebbe solamente correggere la marcia perché in caso di sterzate più brusche non si disattiva? O meglio quanta forza serve al guidatore, seppur attento, per contrastare l'errore del sistema? In così poco tempo (e spazio, vista la velocità) sarebbe stato possibile correggere l'errore?
Ogni guidatore, anche non distraendosi in altre attività (cell, cibo etc.) ha un pilota automatico.. Ma almeno quello non sterza.
ragazzi, in futuro potrebbe essere vietato guidare la macchina senza patenti speciali ottenibili con severi test di guida, il resto lo guideranno i computer.
diciamocelo, i computer non si ubriacano, non fumano, non vanno contromano per sfidare le proprie capacità, non fanno sorpassi azzardati, e tante altre cose che noi umani facciamo.
Se posso riassumere, tieni entrambe le mani sul volante e guarda la la strada quando c'è uno svincolo o un incrocio.
Puoi tenere una sola mano e distrarti qualche secondo quando viaggi su strada dritta e priva di incroci "a raso". Per ora l'autopilota ci permette questo.

E poi, ci scandalizziamo di un sistema che si confonde con linee sbiadite, quando ogni cinque minuti dobbiamo suonare a un cretino che scrive messaggi mentre guida, zigzagando e rallentando senza motivo?
Come preoccuparsi del raffreddore quando c'è in giro la polmonite.
@Guastulfo - cazzeggiando si era proposto a Musk di ribattezzarlo CHU-E, letto Chewie (Ciube, in italiano.

E, a latere, il problema degli avvisi legali appiccicati ovunque c'è: tra il manleva paraculo e l'effettivo avviso di limite strutturale si finisce per rasare tutto a un "cosa vuoi che succeda"
Purtroppo l'hype sull'autopilot porta il "coda vuoi che succeda" su ruote.
Quindi Tesla dice che la model 3 non è certificata fuori USA e Canada? Non la vendono in Europa? E se la compro in USA non posso passare il confine con il Messico. Sono pazzi?
Due o tre considerazioni:

1) Mi sembra che nei commenti si tenda talvolta a fondere i due discorsi "auto elettrica" e "autopilot". Sono cose diverse. Non è che si acquista una Tesla sulla base del fatto che ha l'autopilot. I sistemi di guida autonoma o assistita ci sono in generale nelle auto di alto livello, che siano elettriche o a benzina (p. es. Audi A8), e sono solo, diciamo, un super-accessorio, ma non sono la ragione di esistenza di quelle automobili. La particolarità delle tesla è quella di essere auto elettriche, non di avere la guida assistita. Quindi questi incidenti, è vero, possono delegittimare i sistemi di guida assistita, quale che sia la casa automobilistica che li adotta, ma non delegittimano le Tesla in sé.

2) Per chi dice "È questo il futuro?" O altre sconsolate affermazioni. No: questo è un embrione di un futuro che deve tecnologicamente evolvere, verosimilmente in pochi anni. Ricordo che a fine anni '90 una persona, parlandomi di Internet, a cui ci si collegava in dial-up per progressivi tentativi, per raggiungere con lentezza pochissimi siti, tenere il telefono occupato, incorrere in improvvise disconnessioni, e pagare tutto in bolletta, mi diceva sconsolato e un po' arrabbiato: "Questa internet rappresenterebbe il futuro"? Oggi possiamo dire che la risposta era: "no, occorreva aspettare pochi anni per assistere a progressi inimmagibabili". Al di là della minore drammaticità di questo esempio, sicuramente l'autopilot di adesso sta a quello che sarà fra pochi anni la guida autonoma, come il Dial-Up degli anni '90 sta all'attuale connettività Internet.
Paolo,

Nella zona dell’incidente c’era una biforcazione: la corsia di destra diventava una corsia di uscita. L’auto era nella corsia di destra.

Sicuro?

Perché se ti riferisci a questo pezzo:

The highway in my direction of travel divided at a fork, with the #2 right lane changing into the exit lane, and the #1 left lane remaining the lane for thru traffic. I was travelling in the #1 lane.

Mi sembra che dica "stavo viaggiando nella #1 corsia" e "#1 left", quindi come se l'auto era nella corsia di sinistra.
Il che avrebbe più senso, perché se fosse stata già in quella di destra non avrebbe avuto bisogno di sterzare in quella direzione...
Ripropongo qui, integrandolo, un commento di ieri, visto che è finito nel thread sbagliato.
Btw, sono certissimo di averlo inserito in questo thread, che era l'unico che avevo aperto. Non è che c'è qualche piccolo malfunzionamento nel motore dei commenti?

the vigilance required to use the software, such as keeping both hands on the wheel and constantly monitoring the system for malfunctions or abnormal behaviour, arguably requires significantly more attention than just driving the vehicle normally without use of Autopilot.

Adesso lo dice anche uno che lo ha e lo usa, o lo usava.
Direi che non posso essere più considerato un volgare oscurantista.

Furthermore, I believe that if Autopilot even has the small potential of misreading a clearly marked gore point, and has the potential to drive into a gore point and crash into a barrier, it should not be tested in beta, on the open road, and by normal consumers.

Anche questo mi pareva ovvio, ma evidentemente al "visionario" Musk no.


I commenti di questo thread direi che si possono dividere a grandi linee in due categorie: quelli, come me, che non gradiscono un "auto-coso" che sbaglia in circostanze in cui non sbaglierebbe neanche un principiante al primo giorno di guida e quelli che invece lo ritengono comunque migliore rispetto alla massa di autisti distratti da smartphone o comunque dalla guida poco rispettosa.

A me sembra chiaro che il malcostume di alcuni guidatori deve semplicemente essere sanzionato adeguatamente e non costituissce motivo sufficiente per immettere sul mercato e -peggio- sulle strade un meccanismo che compie errori di valutazione così marchiani e che rischia di causare incidenti anche gravi, invece di prevenirli: che sarebbe successo se a fianco del veicolo ci fosse stata un'altra auto al momento del brusco cambio di corsia?

Quel "requires significantly more attention than just driving the vehicle normally", per quel che mi riguarda è una pietra tombale su questa versione di assistente alla guida.
Paolo,
la macchina si trovava sulla corsia sinistra e non destra.

Il veicolo aveva impostato 120Km/h come velocità massima ma ricordiamoci che, almeno in Italia, in prossimità delle uscite il limite è 100.
Qui abbiamo una situazione in cui le due corsie si dividono e una diventa l'uscita, dubito che avesse come limite i 120.
La macchina si trovava sulla corsia di sinistra quando invece interpreta di andare a destra, quindi verso l'uscita, non si sa a quale velocità. Xue teneva una sola mano e sente lo sterzo girarsi con forza verso destra. Qui sono perplesso, quanta forza ci vuole per correggere gli errori dell'autopilot?
Xue tenta di correggere ma non ci riesce, sbatte la parte sinistra dell'auto contro la parte destra dello spartitraffico. Significa che la sua correzione è stata poco incisiva ma anche che se lo fosse stata di più avrebbe preso lo spartitraffico in pieno. Non parla di freni. Non dice se l'auto prima di sterzare a destra, cambiando corsia, abbia messo le frecce o meno e non sappiamo a quale velocità andasse.

Forse a questo Autopilot ci vorrebbe una modalità in più dove ti suggerisce dove andare senza effettivamente agire sullo sterzo o sul freno, un po' come se ci fosse una persona accanto, magari registrando le azioni del pilota e imparando da queste. Questo però significherebbe fare da tester non gratis ma addirittura pagando per l'acquisto della macchina e del software.

In ogni caso ci vogliono ulteriori dati.
Ecco perché "quelli che ragionano a pistoni" sono stati tanto pedanti e prudenti.

Nel frattempo due associazioni di consumatori hanno già diffidato Tesla per l'utilizzo ingannevole del termine Autopilot con una lettera che sembra più un memorandum - o una bozza di citazione in giudizio.
Si parla già della "rule" del reasonable consumer. (https://jalopnik.com/consumer-reports-says-it-found-big-flaws-with-the-tesla-1826198783).
E come è stato già detto altrove, si è scoperto che in realtà l'incidente con l'auto di Uber è dovuta a un difetto di euristica del software.

A far salti troppo in là nel futuro si rischia di finire nel fosso.

Abbiamo recuperato Paolo. Posso tornare lurker :-D
Per quanto possano esserci dei risvolti raccapriccianti, mi sembra logico che dei sistemi automatici possano sbagliare dove un umano attento non sbaglierebbe, ma la discriminante è che statisticamente un sistema automatico commetta *sensibilmente* meno errori di un umano.

Sono comunque molto curioso di sapere una cosa:
La Tesla mappa personalmente le strade, in modo da aumentare la sicurezza conoscendo le insidie alle quali si può andare incontro? Se così fosse, utilizzando il sistema satellitare Galileo, che permette di conoscere la propria posizione con una precisione di qualche decina di centimetri, questi problemi legati agli svincoli fissi verrebbero eliminati. L'unico problema sono gli svincoli mobili (nel senso di *momentanei* per lavori in corso) che si trovano spesso in autostrada.
Provo a spiegare in dettaglio il mio punto di vista, visto che l'(ab)uso della tecnologia è un problema che mi affascina molto. E anche perché ritengo che l'autopilota, associato alla diffusione di auto elettriche, possa costituire veramente una rivoluzione, portando a benefici enormi nel lungo termine.

Lasciando da parte la diatriba sul nome in qualche modo fuorviante, mi pare si siano delineate da tempo, sfumature a parte, due posizioni radicali: i "denier", quelli che dicono che la responsabilità è comunque di chi guida, e i colpevolisti, quelli che sostengono che comunque l'autopilota è responsabile. Più o meno mi pare che queste due fazioni siano divise 50/50 tra chi commenta.

Personalmente ritengo che le cose siano molto più complesse di così.

E' chiaro che sistemi avanzati di aiuto alla guida che, in caso di malfunzionamenti del software, possono causare gravi danni, soprattutto quando si guida su strade meno standardizzate di quelle presenti in molte regioni nordamericane. E male ha fatto questo signore ad usare questo sistema di guida in un luogo esplicitamente non autorizzato da Tesla.

In questo caso però, se le cose stanno come descritte, c'è un problema di fondo, diverso da quello di altri incidenti.

In alcune auto con sistemi di assistenza alla guida l'auto SEGNALA al guidatore un cambio di corsia etc. In altre fa una leggera correzione, che suona come una vibrazione facilmente correggibile anche sfiorando la mano. L'auto, in ogni caso, non prende l'iniziativa bruscamente.

In questo caso, *sempre ammesso che la dinamica dell'incidente venga confermata*, l'auto ha STERZATO IMPROVVISAMENTE. In questo caso è possibile che anche tenendo le mani sul volante non sia possibile reagire prima dell'urto: queste cose non possono succedere su strade aperte al pubblico. E' possibile che siano problemi correggibili abbastanza da renderli quasi impossibili sul lungo termine, ma è anche vero che la verifica deve avvenire prima di consentirne l'uso sulla strada, e che ci deve essere un sistema per disabilitare l'uso di certi ausili su strade "non commissionate".

Non possiamo fungere da cavie. Mi sembra abbastanza logico. Tesla dovrebbe inserire un sistema automatico per disabilitarne l'uso al di fuori di un areale autorizzato per proteggere l'incolumità del pubblico. Per esempio, attivarlo sulle strade intorno Roma, con segnaletica contraddittoria, strisce sbiadite o peggio incoerenti a causa di lavori recenti, sarebbe suicida.

Poi che tutta l'attenzione si concentri su Tesla, dimenticando i casini che fanno TUTTE le altre marche, questo è anche vero. L'accanimento contro Tesla è il prodotto dello stesso atteggiamento che ne porta all'adorazione da parte dei vari fanboys.
Tutti,

grazie per la correzione destra/sinistra. Ho aggiornato l’articolo.
In due al volante o in tre a letto si è sempre in troppi.
In effetti, nome a parte e euristica da capire, l'autopilota ha un problema banale: non segue le regole auree di Donald Norman.

Autore de "La caffettiera del masochista - Psycology of Everyday Things" - e uno dei padri del modo con cui usiamo gli schermi dei tablet.

La teoria di base è: perché le forbici non hanno un libretto d'istruzioni? Perché puoi capire come usarle da cosa vedi.
Perché certe porte hanno un libretto di istruzioni (di una parola "tirare"): perché son fatte male e non "spiegano" come vanno usate.

E son citate le funzioni obbliganti: una cosa è scrivere sul manuale "con autopilot tieni le mani sul volante", una cosa è avvisare che autopilot si spegnerà tra 30 secondi per ripetuto abbandono del volante, contattare help desk per avere nuovamente accesso.
O, banale: autipilot non attivabile, mancano mappe/connessione.

Certo, un sacco di clienti non sarebbero contenti, avendo comprato l'autopilot perché faccia quello che non deve fare.

Lì è scelta di marketing: o perdi clienti seccati da limitazioni autopilota o perdi clienti in modo definitivo e terminale, coi media che banchettano nel sangue dell'ennesimo teslaro ucciso dalla Macchina Infernale.
Kaguya: "E come è stato già detto altrove, si è scoperto che in realtà l'incidente con l'auto di Uber è dovuta a un difetto di euristica del software."

Non esattamente. A quanto pare il problema principale è che Uber disabilitava la "frenata di emergenza", di serie nei veicoli Volvo di quel tipo, quando la macchina era sotto il controllo del software di Uber e in presenza del pilota umano, pensando che questi potesse intervenire. Il che è successo, ma leggermente in ritardo, portando alla morte di una persona (che comunque è stata dichiarata totalmente responsabile per l'incidente).

Se la frenata di emergenza non fosse stata disabilitata l'urto, se anche ci fosse stato, sarebbe avvenuto a velocità molto inferiore.

Comunque non è possibile che le strade diventino, come in Arizona, una pista di test di tecnologie in via di sviluppo: ci vogliono test esaustivi eseguiti seguendo procedure ben precise e approvate PRIMA dell'uso su strade aperte al pubblico.
Io capisco tutti i discorsi sulla probabilità statistica di incidente e sugli automobilisti distratti.. Ma se io non sono un automobilista distratto, e mi ritrovo un'auto che improvvisamente mentre sto andando dritto sterza contro un ostacolo, quel sistema non lo voglio. Sono "addestrato" a una guida in sicurezza in un setting normale, rispondere agli errori dell'Autopilot è un diverso tipo di skill, a cui aggiungerei un immancabile rallentamento dei riflessi per sbigottimento.
Per fare una analogia, è come se improvvisamente perdessi una ruota. Posso anche essere un buon automobilista, ma non ho mai guidato con 3 ruote e passerebbero secondi prima di una mia reazione ragionata.

Oltre a questo "None of the airbags deployed".
Non sono un esperto, con uno scontro del genere mi viene da dare per scontato che debbano partire. Altro malfunzionamento o mi sbaglio?
Tesla: "Anche se non siamo stati in grado di recuperare dati dal veicolo, visto che l’incidente si è verificato in una zona non supportata"
Ma che vuol dire? Non hanno previsto una sorta di scatola nera dove registrare sensoristica + audio/video anche per il solo minuto corrente da bloccare a macchina ferma?
Non ci credo.
@Thhh

Non sono un esperto, con uno scontro del genere mi viene da dare per scontato che debbano partire. Altro malfunzionamento o mi sbaglio?

Gli airbag entrano in funzione a seconda dell'intensità e dell'orientamento delle decelerazioni (o accelerazioni) rilevate. Se i valori non sono sufficientemente alti, l'aribag non entra in funzione.

In questo caso abbiamo un danno visibile che colpisce subito lì'occhio, ma a guardarci bene l'impatto può essere avvenuto anche a velocità relativamente basse: se guardi le immagini, si vede chiaramente il longherone sinistro, più o mneo intonso.

L'auto ha urtato alla sinitra del longherone sinistro, all'esterno della struttura di assorbimento degli urti; ha urtato con strutture leggere e non progettate per assorbire gli urti, che infatti si sono spappolate: parafango, fascione paraurti di plastica, faro, ruota e sospensione, portiera.

La ruota e la sospensione sono abbastanza pesanti e compatte di per sé, ma sono collegate alla macchina in maniera abbastanza leggera (si muovono), e se applichi loro delle forze in direzioni non previste, si strappano rapiamente, come è successo qui.

La struttura dell'auto è integra, la portiera si è aperta e addirittura la parte posteriore del veicolo è solo segnata. E' probabile dunque che l'urto sia stato bene angolato e le decelerazioni abbastanza leggere (e i danni molto scenografici), dunque gli airbag non sono entrati in funzione.

---

nota:

A chiamarlo autopilot, poi la gente ci crede. Lavarsene le mani con due parole sul manuale, ma continuare a dare l'impressione che sia ciò che non è, è veramente roba da chiodi. Le tattiche di marketing di Tesla sono vergognose.
Anche gli esperti confermano che
"[...] machine learning is a fundamentally hard debugging problem [...] it is ‘exponentially’ harder to figure out what is wrong when things don’t work as expected."
http://ai.stanford.edu/~zayd/why-is-machine-learning-hard.html
L'articolo spiega che vi sono troppe cause diverse per cui l'algoritmo potrebbe malfunzionare... "troppe" nel senso della dimensionalità elevata dello spazio dei dati e dei parametri; e io ne deduco che i sistemi messi su strada hanno avuto un testing troppo limitato per essere affidabili.
Io mi fido sempre meno di queste macchine "intelligenti".
Conclusione drastica la tua, così come "drastico" era il tuo entusiasmo, sia per l'elettrico (che ha mostrato anche a te tutti i suoi limiti daurante i tuoi primi passi da possessore di auto elettrica) che per gli aiuti alla guida (che sono semplici aiuti, appunto, che ci sono anche sulla concorrenza da 10 anni, con tutti i loro difetti e affinamenti da fare).

Ti sei buttato a capofitto in questo argomento con gli occhi del fan, lasciando fuori dalla porta il tuo solito approccio critico e razionale.
Noi "petrolhead" che sguazziamo in queste questioni da tutta una vita sembriamo sempre quelli che vogliono fare i reazionari conservatori a tutti i costi, ma stiamo semplicemente prendendo con le pinze i proclami di un azienda che ha mostrato al mondo molto meno di quel che racconta, ma l'ha sempre passata liscia, anche per l'immotivato entusiasmo che ha raccolto intorno a sé da parte di appassionati non di auto, ma di tecnologia e quisquilie nerd varie.

Se però oltre agli easter egg da Balle Spaziali e Guida Intergalattica non si conoscono le basi di una macchina e dell'industria che ci sta dietro, poi si prendono le cantonate.

Così quando ti dicevamo che l'elettrico non è il futuro di dopodomani, che ha ancora grossissimi problemi di infrastruttura e di densità energetica, e che la soluzione più razionale e flessibile nel breve periodo sono le ibride, sembrava parlassimo arabo.
Quando prendevamo per pazzo Musk quando cianciava di ritmi produttivi forsennati senza la minima esperienza industriale, passavamo per gli invidiosi di turno.

Altri esempi sparsi:
-l'Auto"pilot" non è mai stato tale, è giusto un raffinamento di sistemi già esistenti, e marciare sul suo nome truffaldino non è una buona idea da parte di Musk, quantomeno dal punto di vista etico.
Questo anche se non fossero successi i recenti patatrac.

-l'infrastruttura per trazione elettrica è ancora un casino totale.

-i sostenitori e possessori di Tesla mostrano comportamenti tipici dei fanboy, quasi settari: alcuni passaggi della dichiarazione di Sue fanno molto pensare.
Questo ha rischiato la vita per un malfunzionamento di un sistema che, in teoria, è di sicurezza, ma ancora tesse le lodi dell'azienda come se niente fosse, come se stesse combattendo insieme ad essa una battaglia dal valore morale superiore.
E' tutto un parlare della comunità Tesla e EV, dell'uscire più forti da queste avversità, dal raggiungere un giorno il Valhalla della guida autonoma per rivoluzionare la nostra società e suonare flauti di Pan immersi nella luce.

Ma oh?! La vogliamo capire che qua un'azienda sta facendo un vero e proprio beta test di massa sulla pelle dei clienti?
Che permette ad un sistema con falle come queste di governare autonomamente un'auto lanciata a velocità considerevoli per interi MINUTI, quando la concorrenza non si azzarda a superare qualche secondo?

Vogliamo mettere sotto i riflettori, finalmente, queste cose o continueremo a metterci le fette di salame sugli occhi?
Azzardo un opinione. Non è che gli autopilot, che siano Tesla, Google, o Toyota, rimarranno un esperimento fallito e non perfezionabile fin quando anche le strade saranno digitali? Cioè quando le strade saranno dotate di dispositivi che interagiscono con le auto per poter dare riferimenti digitali e non analogici?
Io continuo a pensare due cose:
- autopilot e' un nome fuorviante
- la gente non RTFM
Sicuramente era distratto ed è stato onesto a dichiararlo ma è anche vero che, da come ha descritto l'incidente, anche concentrato non si sarebbe potuto aspettare una deviazione brusca e improvvisa dell'ultimo minuto.
Anche "perdonando" l'autopilota dicendo che è stato ingannato dalle strisce mal disegnate, ma non lo ha visto che cambiando corsia si stava schiantando?
Ho una Subaru con Eyesight, che temgp praticamente sempre attivo, sia in autostrada che su strade urbane/extra-urbane. Ho letto il manuale, e sarà che è un sistema steroscopisco (con doppia telecamera), ma non ho mai avuto nessuna reazione imprevedibile o violenta; anzi, prima segnala acusticamente l'allontanarsi dal centro della carreggiata, e poi accompagna dolcemente la vettura verso il centro. Gli unici frangenti in cui da "falsi positivi" è quando, impegnando una rotonda o uno svincolo "stretto", interpreta il guard rail o la segnaletica verticale come possibili ostacoli e attiva la segnalazione del rischio collisione.
Gli airbag non funzionano al di fuori degli Stati Uniti e del Canada?
@fabio galletti
GRAZIE
Avevo citato timidamente Norman qualche articolo di Paolo fa, del tutto ignorato, leggendo il tuo post mi sono rincuorato. Io credo che tutti gli appassionati di tecnologia dovrebbero leggere "La caffettiera del Masochista".
Condivido in pieno il tuo commento, è li il nocciolo della questione, e il libro di Norman parla apertamente degli incidenti aerei e di come ben di rado sussista l'errore umano ma sempre si ha una cattiva progettazione.
La risposta di Tesla è drammatica. Se in una zona l'autopilot non deve essere utilizzato, avendo il veicolo un gps, semplicemente non deve essere attivabile. Punto. La sicurezza non può stare dentro un manuale, ma deve essere intrinseca.
Non conta se nello stesso momento ci sono stati migliaia di incidenti anche mortali con altri sistemi di guida, il guaio è che anche uno incidente con QUESTO sistema di guida dimostra che QUESTO sistema di guida è sbagliato e inaffidabile.
E sopratutto è sbagliata l'indicazione del manuale. Riprendere il controllo è molto più complicato che mantenerlo, una cosa o la faccio o la fa un altro, citando un altro commento qui sopra. Per me l'autopilot fa il contrario di quello che dovrebbe fare per aumentare la sicurezza. Ricrodiamo i treni, che di per se vanno da soli, cha hanno i cosidetti dispositivi vigilanti o più volgarmente dell'uomo morto.
Francamente io sono preoccupato dal fatto che potrei trovarmi per la strada una tesla condotta dall'autopilot.
Per come è descritta la dinamica dell'incidente, mi immagino che se anche fosse stato con ambedue le mani sullo sterzo e con la massima attenzione possibile, quando la macchina ha "deciso" di tirare su un lato, la controsterzata istintiva non avrebbe potuto causare altri danni.
Una domanda e alcune consuderazioni.
La tesla ha un commutatore chilometri orari-miglia? Ovvero la tesla in questione leggendo i limiti ha intesi 120km/h o mph? E chi la guidava? Si può settare a 74 virgola qualcosa?

Consuderazioni. Gli idioti al volante sono più di quanto si pensi, li vedi sopratutto se si viaggia sulla corsia di destea in autostrada. Viaggi a 100 km/h e questi ti tagliano la strada (o ti superano e ti tagliano la strada) per immettersi nell'uscita subito dopo. Un autopilota o guida assistita mon lo farebbe. Limiti l'autilopilot ne ha molti. Difetti pure. Ma meglio di certe persone. Fra l'altro nessuno obnliga ad usarli e e nessuno obbliga ad usarlo ad alta velocità. Forse sbaglio ma fin'ora ho letto solo di incidenti a macchine che andavano abbondantemente oltre i 100 km/h...

Consuderazione finale. Vi siete mai chiesti perché le formiche nelle loro "autostrade" non si urtano, non si fermano ma viaggiano fluide? Uno studio diede la risposta:nesduna formica cerca di superare l'altra, prendere scorviatpie o fare la furba. Noi umani?
@dani1967 devo recuperare la versione aggiornata del 2003.
Ho ancora la copia di "la caffettiera del masochista" con il "geniale idea della Xerox: lo chiamano mouse" :-)
Questo commento è stato eliminato dall'autore.
Dani1867: "Francamente io sono preoccupato dal fatto che potrei trovarmi per la strada una tesla condotta dall'autopilot."

Condivido alcune cose che hai detto (altre non le ho comprese appieno), ma qui esageri.

Guido spesso in California, di norma in autostrada. Presumibilmente, visto che le Tesla lì sono ovunque, molte di queste hanno l'autopilot e non ho mai avuto alcun problema o visto un qualsiasi incidente in cui fossero coinvolte. Le cronache dicono che di incidenti di Tesla in autopilot lì dove le Tesla regnano ce ne sono stati 1 (uno). Facciamo pure 3 per sicurezza ma In compenso ho visto auto di tutti i tipi coinvolti in incidenti (pochi, per la verità, perché almeno in Southern California la gente guida in genere bene, le strade sono in condizioni eccellenti e la polizia è molto attenta). Stessa cosa in Olanda, presso Tilburg, dove studiava mio figlio e dove c'è un gran numero di questi veicoli a causa della presenza della fabbrica Tesla che integra i veicoli per l'Europa.

In compenso in Centro Italia vedo ovunque comportamenti pericolosi, segnaletica orizzontale e verticale demenziale, contraddittoria, mancante o eccessiva. Incidenti molto frequenti. Lo dicono le statistiche, oltre che l'osservazione diretta.

Domanda: perché ti preoccupi dell'autopilot della Tesla invece di preoccuparti della situazione da Far West sulle strade italiane, senza controllo? Quello che ho visto su strade consolari come la Salaria o la Cassia lascia senza parole. Praticamente OGNI volta che ne percorro una noto diversi comportamenti a rischio.

Cerchiamo di dare il giusto peso al problema. Non stiamo parlando di una strage ma di un numero limitato di incidenti. Non sappiamo con esattezza quanto rilevanti, ma non mi sembra si possa concludere che tutta questa attenzione sulla Tesla, sebbene legittima (e spero che la compagnia corra presto ai ripari) corrisponda al reale peso che ha nelle statistiche di incidenti e nel rischio di chi si trova alla guida. Questa fissazione con la Tesla, da un lato (fanboy) e dall'altro (hater), francamente mi sembra esagerata.
@pgc:
i colpevolisti, quelli che sostengono che comunque l'autopilota è responsabile..

No, niente affatto.
Solo non voglio un coso che mi richiede maggiore (e diversa) perizia rispetto a quella richiesta dal guidare con i miei occhi, le mie mani e il mio cervello da somaro.

@VDBG:
Perfettamente d'accordo.

@pgc
Mettiamola così. Avendo una buona esperienza con gli umani, mediamente riesco ad intuire le stupidaggini che possono fare, e quindi me ne faccio una ragione. Non solo, posso confidare anche nella loro comprensioni in caso di mie sbavature, aimè capita.
Mentre mi sento totalmente sguarnito nei confronti di eventuali errori dell'autopilot, e mi pare che vi sia una certa quale certezza della difficoltà dello stesso di cogliere eventuali miei errori.
Per quanto riguarda eventuali miei scritti confusionari, dovrei rileggere La caffettiera del masochista, oramai lettura di qualche anno fa, per potermi esprimere con linguaggio più completo. Magari ne approfitto.
"Non esattamente. A quanto pare il problema principale è che Uber disabilitava la "frenata di emergenza", di serie nei veicoli Volvo di quel tipo, quando la macchina era sotto il controllo del software di Uber e in presenza del pilota umano"

E invece purtroppo è proprio così.
"The report confirms what Uber had previously acknowledged internally—that its software failed to properly classify the pedestrian, 49-year-old Elaine Herzberg, before she was fatally struck." (fonte: https://jalopnik.com/ubers-autonomous-car-had-six-seconds-to-prevent-fatal-c-1826290552).
La disattivazione del sistema nativo dell'XC90 è dovuto proprio al difetto euristico del sistema di Uber di determinare quando frenare e quando no. Lo ha detto la stessa Uber (According to Uber, emergency braking maneuvers are not enabled while the vehicle is under computer control, to reduce the potential for erratic vehicle behavior; fonte: https://jalopnik.com/why-volvo-s-auto-braking-system-might-have-kept-the-sel-1826306754).
In pratica per evitare che l'auto frenasse a vuoto perché il sistema è carente euristicamente, hanno disabilitato la funzione nativa.
Esattamente come noi disabilitiamo l'antivirus che ci dà dei falsi positivi.

Mi pare che Arstechnica sia abbastanza chiara: "There's a reason Uber would tune its system to be less cautious about objects around the car," Efrati added. "It is trying to develop a self-driving car that is comfortable to ride in."
(https://arstechnica.com/cars/2018/05/emergency-brakes-were-disabled-by-ubers-self-driving-software-ntsb-says/)


In ogni caso è evidente come l'approccio a questi temi richieda più prudenza che entusiasmo.
Quantomeno si smetterà di leggere il refrain per cui il sistema di Tesla non sarebbe paragonabile per complessità e stadio di avanzamento a quello degli altri veicoli.
Sono speranze più che fatti.

E non a caso si parla di "reasonable consumer".
Il geek può essere (o credere di essere) un consumatore esperto in un settore, ma potrebbe essere - e spesso è - come un bambino nudo in un settore che non è il suo.
Ecco perché invece di dare del fesso imbranato a chi "non ha letto il manuale" sarebbe più onesto, anche verso le proprie inevitabili debolezze, far mente locale sul fatto che noi stessi quasi mai abbiamo una diligenza impeccabile in settori che non sono i nostri, e che se siamo in grado di spostarci in auto in sicurezza lo dobbiamo al fatto che qualcuno non si è accontentato di gridarci "impara a guidare", ma è sceso al nostro livello e ci ha venduto dei veicoli capaci di adattarsi anche alle nostre scarse competenze.
Su questo Musk e molti fanboy Tesla sono un filino (e immeritatamente) spocchiosetti.
Io sono curioso di sapere se l'autopilot ce la avrebbe fatta a percorrere quella curva nello svincolo se il guidatore non avesse interferito.

Che avrà "pensato" l'autopilot?
Che l'unica strada era quella curva nello svincolo e che quindi bisognasse tentare di farla a tutti i costi?
Che la strada giusta era la curva ma si poteva pure andare dritto? Avrà allora valutato che ce la faceva a prendere lo svincolo all'ultimo momento e non c'era bisogno di continuare dritto sulla strada che secondo lui era sbagliata?

Una nuova professione del futuro: psicanalista per intelligenze artificiali... (debugger?)
Questo mostra quanto questa tecnologia sia ancora acerba. Nonostante tutti i sensori l'algoritmo non si è reso conto che stava andando a sbattere di lato, e che stando pochi centimetri più in la non avrebbe urtato lo spartitraffico.
Insomma, capisco imboccare lo svincolo sbagliato per via della segnaletica mal fatta, ma che non sia previsto un controllo che impedisca all'auto andare a sbattere "disobbidendo" a quello che impartisce l'autopilota mi sembra grave.

Da programmatore navigato che cerca sempre di immaginare come sono stati implentati gli "autopiloti", questi algoritmi non avranno mai la mia completa fiducia :)
E' un dato di fatto che negli ultimi due decenni l'umanità ha fatto grandi passi indietro in termini di consapevolezza. Ma da quand'è che si parla di Intelligenza Artificiale Forte e Debole? Non è questione di fiducia in un software, è mancanza di responsabilità. Quando Paolo dice che non acquisterà l'AutoPilot, mi sembra il minimo in termini di consapevolezza. Lasciare la responsabilità a terzi, è logicamente irresponsabile. Ma sono strano io?
Sono possessore di una Opel dal 2016. Inquina, in quanto ha un motore a gasolio da 136 cavalli, e ha un'immagine infinitamente più povera di Tesla.
Non ha "Autopilot", però: ha il Cruise Control, che permette di impostare una velocità e l'auto la mantiene.
Ha il dispositivo anticollisione, per cui se mi avvicinassi troppo velocemente ad un ostacolo ricevo prima di tutto un segnale ottico acustico, e se non intervengo il sistema aziona i freni dell'auto.
Ha il mantenimento di carreggiata, con lo sterzo che si aziona da solo per riportarmi al centro della corsia se dovessi spostarmi troppo.
Ha il rilevatore di segnali stradali, che mi indica (solo indicazione, non effettua nessuna azione autonomamente) il limite di velocità rilevato dalla segnaletica stradale.
Quindi la mia Opel da 27.000 euro non viaggia da sola; non è in grado di seguire autonomamente una strada o di cambiare corsia per effettuare un sorpasso. Ma è veramente di grande ausilio alla guida e mi rende molto più tranquillo e rilassato quando attivo i dispositivi sopra descritti.
Se non ci fidiamo dell'Autopilot, non buttiamo il bambino con l'acqua sporca: accontentiamoci di sistemi di ausilio affidabili e di grande aiuto (che sicuramente anche Tesla possiede) e attendiamo tempi migliori (sono sicuro che non ci vorrà molto tempo) per poter dire: l'auto guida da sola.
“L’Autopilot viene commercializzato come una funzione di assistenza al conducente che riduce lo stress e aumenta la sicurezza. Tuttavia si può argomentare che la vigilanza necessaria per usare il software, come per esempio tenere entrambe le mani sul volante e monitorare costantemente il sistema per eventuali malfunzionamenti o comportamenti anormali, richiede un’attenzione significativamente maggiore rispetto alla guida normale del veicolo senza usare l’Autopilot.” E' quello che ho sempre pensato. Un'auto non si può guidare in due, pena l'incidente assicurato (prevengo l'obiezione: nei rally il copilota, o navigatore, dà solo informazioni sulla strada, non "guida" materialmente il veicolo). Aggiungo che data la grande complessità dell'attività normalmente definita "guidare un'auto", temo che i software odierni non siano ancora in grado di farlo. E questo senza neanche iniziare a parlare della frequentissima "imperfezione" (a voler essere buoni) di segnaletica orizzontale e verticale delle strade su cui ci spostiamo... noi la sappiamo interpretare, un software temo di no...
@pgc
Non stiamo parlando di una strage ma di un numero limitato di incidenti

Il fatto è che, mentre è psicologicamente accettabile che un "autopilot" non riesca ad evitare un incidente in una situazione di pericolo (un'auto che ti taglia la strada ad esempio), non lo è il fatto che lo provochi con queste modalità.

Si ha la sensazione di fare una roulette russa, e le cose non migliorerebbero nemmeno se si trattasse di un tamburo da 10.000 pallottole.

In altri termini, mentre ci sta bene che abbiamo una probabilità su mille di morire di incidente d'auto (non ricordo il valore esatto ma mi pare che sia grossomodo così) con guida manuale, non ci starebbe bene neppure se ci fosse una sola possibilità su 10.000 di andare a sbattere contro un guardrail con un'auto a guida autonoma e uscirne vivi e senza un graffio.

Sempre che le cose stiano davvero così e non si scopra che i pericoli di questi sistemi siano molto maggiori.
@pgc

Questa fissazione con la Tesla, da un lato (fanboy) e dall'altro (hater), francamente mi sembra esagerata.

E' quello che Musk voleva e che ha attivamente ricercato pompando il brand per farne parlare in ogni modo.

Il lato positivo è che ha avuto una pubblicità immensa. Il lato negativo è questo, ma a Musk, che mostra una disinvolta ipocrisia e una faccia di tolla non da poco, i lati negativi di questa strategia non piacciono.

Io l'ho già detto che questo modo di plagiare la psicologia delle masse per far parlare del proprio prodotto non è una cosa sana, e questa polarizzazione delle persone ne è una prova lampante.
SirEdwards "Il lato negativo è questo, ma a Musk, che mostra una disinvolta ipocrisia e una faccia di tolla non da poco, i lati negativi di questa strategia non piacciono. "

Ipocrisia... faccia di tolla... Wow! Ok ok Immagino che tutti questi ipercritici da bar sport stiano mettendo su un'azienda di vettori in grado di fare concorrenza a Boeing, ULA e Arianne. Più una di auto che fa concorrenza a GM o Ford. Naturalmente senza fare assolutamente errori, sempre in attivo e senza alcuna pubblicità.

Ma non vi pare di esagerare un pochino con i giudizi negativi? Solo un pochino, eh! Se leggete i miei commenti non è che faccia sconti: i fatti sono fatti. Niente fanboysmi (scusate il neologismo) ma senza neanche esagerare dall'altra parte.

Auguri comunque, aspetto le iniziative e le grandi idee di tutti costoro che parlano di Musk come se si trattasse di uno che fa il gioco delle tre carte sul tavolino all'autogrill.
invito a leggere il mio commento #32, soprattutto la seconda parte, dove ho cercato di chiarire più che altrove la mia opinione personale in dettaglio su questo assurdo incidente.
@Galletti
il fatto e' che la gente vede la tesla come un'automobile e come tale la tratta. Quindi si aspetta che si comporti un certo modo.
L'errore secondo me di tesla e' li' ovvero avere un problema di sicurezza se l'utente non e' perfettamente formato.
Quindi o fai dei corsi con esame finale senza il quale non puoi guidare la tesla oppure progetti l'auto per essere sicura anche se l'utente non ha letto perfettamente il manuale.
Magari non sapra' accendere l'autoradio o cambiare i tergicristalli, ma deve essere in grado di utilizzarla in sicurezza appena si siede al volante.
E' un'automobile non un caccia...
@pgc, SirEdward

Vi state dimenticando che Musk è un imprenditore che, magari, rischia più della media degli imprenditori.

Gli imprenditori diventano tutti ipocriti, "faccia di tolla", e anche peggio, quando si tratta di difendere la loro attività.

Ho visto figli e parentame vario messi in un angolino con incarichi inutili al solo fine di convincerli ad andarsene perché non ritenuti (anche a torto delle volte) validi dal padre/marito/zio imprenditore.

Con SpaceX, Musk ha azzardato un'innovazione che l'ha messo effettivamente davanti agli altri (salvo errori nei suoi calcoli sulla convenienza effettiva nel recuperare i razzi).
Inoltre, non credo proprio che le pratiche di marketing applicate a Tesla otterrebbero risultati nell'ambiente dei lanci spaziali. :-)

Con Tesla invece, Musk doveva farsi spazio. L'unico modo che aveva era spintonare creando un alone di magia intorno a Tesla e il loro essere anni luce avanti.

In realtà non lo sono (e Musk lo sa) e le altre case automobilistiche lo stanno iniziando a dimostrare.

Per ora ritengo che l'unico modo che ha Musk per tenere testa alle altre case automobilistiche sia quello di tirar fuori conigli dal cilindro che stuzzichino la fantasia delle persone.

Lo ha fatto, rischiando moltissimo, nell'usare il termine "Autopilot" che ha, per l'appunto, stuzzicato il sogno (che tale rimane per ora) di un'auto che si guida da sola.

Domani utilizzerà una qualche altra tecnologia ancora acerba come l'autopilot che creerà altre polemiche.

come alternativa, in mancanza di novità eclatanti, Musk potrebbe anche decidere di vendere la sua casa automobilistica ora che ha un suo valore dovuto anche all'aura che ha saputo creare intorno a queste auto.
@pgc:

ipercritici da bar sport

Scusa, Pgc, ma qui non ti seguo, per niente.

Il ragionamento di SirEdward è razionale:
hai inseguito un certo tipo di approccio di comunicazione emozionale per mettere sotto i riflettori i tuoi prodotti? Si
Hai presentato un componente di ausilio alla guida come se fosse qualcosa di ben più innovativo, tanto da definirlo pomposamente "Autopilot"? Si.
E quindi perché ti lamenti se poi la medesima attenzione viene rivolta al tuo auto-coso quando dimostra di non funzionare?

Quando si fa notare che altre aziende che producono autoveicoli da un secolo o giù di lì -scusa se è poco- hanno adottato una politica cautelativa nell'introduzione di certi meccanismi che interferiscono con la guida mentre Musk li ha addirittura spacciati per "Autopilot", si commette forse lesa maestà verso l'idolo dei nerd?
O credi che Musk e il suo team siano gli unici in grado di mettere due telecamere e un sistema di riconoscimento delle striscette orizzontali su un veicolo?

Quando un acquirente entusiasta del prodotto (e lo è ancora a giudicare dalle sue parole) arriva ad ammettere che l'auto-coso "requires significantly more attention than just driving the vehicle normally" e che "it should not be tested in beta, on the open road, and by normal consumers" cosa concludi nei confronti di chi invece invece si limita a sostenere che è colpa dell'autista perché non è stato abbastanza pronto da correggere la puttanata dell'auto-coso?

Non è essere haters, è semplicmente constatare che dietro all'azienda per certi versi innovativa c'è anche una bella dose di fumo. Ma non sembra ci sia dietro l'arrosto, almeno su certi temi.
Ma a questo punto, scusate, non si potrebbe impostare l'autopilot in modalità "addestramento" e fargli monitorare la guida normale in modo da "insegnargli" a riconoscere le varie situazioni, che un pilota in carne ed ossa riesce a gestire normalmente?
Quello dell'autopilot non "omologato" per circolare al di fuori di USA e Canada è una evidente scusa: allora NON vendete l'auto al di fuori di USA e Canada o IMPEDITE di attivare l'autopilot.
@pgc

Ipocrisia... faccia di tolla... Wow! Ok ok Immagino che tutti questi ipercritici da bar sport stiano mettendo su un'azienda di vettori in grado di fare concorrenza a Boeing, ULA e Arianne. Più una di auto che fa concorrenza a GM o Ford. Naturalmente senza fare assolutamente errori, sempre in attivo e senza alcuna pubblicità.

Proprio perché non sei sempre e solo positivo con Tesla, è strano che tu non capisca la possibilità che Musk sia -contemporaneamente- un genio E uno str***o.

Ma quello è. E uno dei motivi per cui ha fatto le cose geniali che ha fatto è proprio perché è str***o.

Solo che a me le manipolazioni, gli hype sparati a mille, le false impressioni date da nomi fuorvianti, non piacciono; perché fanno più danni a tutti dei vantaggi che portano a pochi. Dunque li denuncio. Sempre. Musk li usa, io li denuncio.

E sembrerebbe che faccio bene, visto che finalmente si comincia a parlare di autopilot come una tecnologia imperfetta invece che della divinità incarnata. Ma ce n'è voluto tanto di tempo, e tanto ce ne vorrà: tempo sottratto a tutti per ricostruire ognuno la propria immagine mentale di cosa è Tesla. Tempo che Musk ha scelto di far pagare a tutti dopo averne mietuto i vantaggi solo per sé.

Un genio, sicuramente, perché ci vuole del genio per portare a termine un gioco simile di questa portata; E anche uno str***o, perché devi essere str***o per fare questo scientemente, sapendo che stai ingannando le persone ogni volta che pronunci certe parole.

Un genio, appunto
@schizzo l'autopilot è in grado di "venirti a prendere" se usi la funzione summon, quindi si, "sterza così tanto".

@scatola grande " ma ricordiamoci che, almeno in Italia, in prossimità delle uscite il limite è 100." ehm... da quando? Non mi pare proprio che lo sia.
pgc secondo me no, non si sta esagerando coi giudizi negativi. E' il problema Apple, si presentano come migliori e infallibili e invece no.
Stanno costruendo razzi che mandano in orbita satelliti? Benissimo, ma quelli si guidano "da soli" dai tempi di Gagarin.

Le auto non si guidano da sole da più di 40 anni, forse da tre o quattro e solo in situazioni specifiche.

Salve a tutti. Ho letto un po' le dichiarazioni di You You Xue e devo ammettere che mi sono fatto un'idea diversa dell'incidente rispetto a quello che ho letto qui.

A giudicare dalle foto e dalla descrizione Xue stava approcciando da nord questo svincolo:
https://www.openstreetmap.org/query?lat=40.79829&lon=21.44223#map=17/40.79719/21.44310
https://www.google.com/maps/@40.7969898,21.4419653,953m/data=!3m1!1e3

Come si può vedere dalle immagini street view di google lo svincolo è quantomeno recente. A giudicare dall'elemento https://www.openstreetmap.org/way/585949117 parte del cavalcavia era stata appena aggiunta alla mappa di OSM. È possibile che quella la parte della strada sia nuova e sia stata appena aperta.

Da quello che Xue racconta l'idea che mi sono fatto è la seguente:
1. è possibile che le mappe di Tesla fossero ferme a un mese prima (visto che la Tesla non è stata omologata in Grecia, è possibile che il sistema non abbia mappe, o le aggiorni raramente?) e che quindi non sapesse quale delle due direzioni fosse la strada giusta, la parte che prosegue dritto, o la parte che gira a destra? È addirittura possibile che una delle due non risultasse come una strada, visto che lo svincolo risulta essere in OSM da 4 mesi se non sbaglio https://www.openstreetmap.org/way/337795978 - questo potrebbe voler dire che c'era un momento in cui la strada percorribile fosse solo lo svincolo.
2. Xue dice se ho capito bene che all'improvviso la macchina ha girato a destra, cercando di prendere lo svincolo. A quel punto lui ha preso il volante e lo ha forzato verso sinistra. Dalle foto sembra ovvio (sembra) che la Tesla sarebbe riuscita a girare nello svincolo senza problemi, ma provando a rimanere sulla strada principale Xue ha provocato l'incidente con lo spartitraffico. Infatti dalle foto sembra che la macchina abbia passato lo spartitraffico, colpendolo sul lato destro dello stesso con il lato sinistro della macchina. Mi viene da pensare che se Xue non avesse toccato il volante, la macchina sarebbe semplicemente uscita tramite lo svincolo.
3. Combinando 1. e 2., la mia idea è che qualcosa nel sistema di Tesla ha fatto credere, o scegliere, alla Tesla che usare lo svincolo (che per la macchina poteva anche sembrare la via principale, larga e mappata forse prima, o meglio) fosse la strada migliore, o anche che fosse l'unica strada. Quando le telecamere, il GPS, e le mappe cercano di creare una direzione di guida condivisa, è possibile che la scelta cada sul lato sicuro, lo svincolo in questo caso (forse). È quindi possibile che l'autopilot abbia semplicemente guidato come se quella fosse una strada principale in curva, senza curarsi troppo di ciò che un uomo percepisce come la direzione naturale (diritto senza uscire).

Detto questo, se non ho preso una cantonata, non mi sembra che la colpa sia dell'autopilot, e non mi sembra che il comportamento dell'autopilot si possa chiamare una "malfunction". Al limite mi sembra che l'autopilot abbia preferito uscire e che un passeggero distratto sia entrato nel panico e abbia provocato un incidente.

Questo non vuol dire che l'autopilot sia sicuro o niente, anzi, forse un autopilot che gira a sorpresa ed esce da una autostrada può anche far spaventare.

Però non bisogna scordarsi che in moltissimi paesi il sistema di cruising control esiste da anni. E che molte macchine lo stanno aumentando includendo il tenere la corsia, il rallentare automaticamente, il guidare in linea retta durante il traffico lasciando al conducente semplicemente il volante etc. Non c'è modo di fermare queste cose, peraltro molto utili. E l'autopilot di Tesla non è altro che uno di questi sistemi, anche se con molto più marketing. Bisogna spingere per migliorare la sicurezza, ma illudersi che ci si fermerà è poco realistico. Inoltre ci sono anche bei video su youtube di Tesla che evitano incidenti in situazioni in cui un uomo difficilmente avrebbe capito cosa stava per succedere, o avrebbe avuto il tempo di reagire.
Per rispondere a pgc e rimettere le cose nel giusto contesto, vorrei spostarmi un attimo da Tesla e oarlare invece di SpaceX (un terreno su cui pgc puo' dire la sua con grande competenza).
Lasciamo perdere il discorso sull'effettiva utilita' pratica del razzo che "ritorna alla base" atterrando in verticale (non ancora dimostrata, e verra' dimostrata se e solo se si dimostrera' che puo' essere riutilizzato per un numero significativo di lanci... non certo due o tre, almeno uno zero a quelle cifre bisognera' aggiungerlo).
Parliamo invece della "leggenda" (e non sto usando questa parola a sproposito) del BFR e della colonizzazione di Marte, presentata in pompa magna da Musk in ben due conferenze IAC consecutivamente. Una roba che ha fatto sbavare e sognare ammiratori da tutti gli universi conosciuti (ricordo lo stesso Paolo che, dopo la prima presentazione di Musk in Messico, ci fece un articolo accuratissimo lasciando per un momento in cantina tutto il suo spirito critico e parlandone come se 'sta roba dovesse effettivamente avvenire nel giro di pochi anni...)
La verita', come sa benissimo chiunque capisca un minimo di razzi e ingegneria spaziale, e' che tutta la roba presentata da Musk era fuffa. Pensieri buttati li' al solo scopo di attirare attenzione e investimenti, la cui fattibilita' crolla miseramente al minimo tentativo di ragionare con equazioni e numeri e non con "bla bla bla". Puro marketing, dato in pasto ai fan che non aspettano altro che la persona che trasformi un po' di film di fantascienza in realta'.
Qualche esempio (giusto le prime cose che mi vengono in mente):
-) Il BFR, il magico razzo che potrebbe addirittura realizzare per la prima volta il Single Stage To Orbit (parola di Musk). Basra fare due conti con l'impulso specifico dichiarato da Musk per il suo motore ossigeno-metano, per verificare che e' impossibile a meno di avere coefficienti di massa strutturale non realizzabili con nessuno dei materiali conosciuti.
-) La schermatura degli astronauti dalle radiazioni durante il viaggio Terra-Marte, che e' IL problema da risolvere per rendere fattibili questo tipo di missioni umane, su cui Musk non ha mai speso una parola per spiegarci come pensano di risolverlo.
-) I numeri presentati per il motore Raptor (almeno nella prima presentazione in Messico): provate a metterli nella Ideal Rocket Theory, e troverete risultati assurdi per la geometria del motore: segmo che almeno uno di quei numeri era, diciamo cosi', "sbagliato"...
-) Tutto il programma presentato da Musk funziona se e solo se si puo' produrre in maniera affidabile propellente sulla superficie di Marte, altrimenti quella configurazione di missione e' sostanzialmente impossibile. Pero' questa tecnologia (in-situ propellant generation) e' an un livello di maturita' bassissimo e ci vorranno decenni prima di dimostrarla e renderla cosi'affidabile da costruirci sopra un intero programma di colonizzazione marziana. Musk pero' annunciava in pompa magma di essere pronto a partire entro pochi anni.

E potrei continuare con molte altre incongruenze tecnologiche...
brian_use; "O credi che Musk e il suo team siano gli unici in grado di mettere due telecamere e un sistema di riconoscimento delle striscette orizzontali su un veicolo?"

Oggi no, quando uscì la prima versione dell'autopilot si. A quei tempi come modello in commercio era effettivamente anni luce avanti agli altri. Sia come prestazioni delle sue auto elettriche che dell'autopilota. Gli altri si sono accodati. Oggi una Subaru da 30 mila euro è in grado di fare alcune di queste cose ma per vedere un'auto che - casi particolari a parte - era in grado di andare da A a B autonomamente, si è dovuto aspettare parecchi anni.

Ricordo che la DARPA Grand Challenge del 2004 non vide NESSUN veicolo arrivare al termine del circuito. Quella del 2005 solo 5. Il primo Tesla autopilot sul mercato è di alcuni anni dopo (2014). Tesla ha chiaramente esagerato, tant'è che con la versione 7.1 (dicembre 2015, poco più di un anno dopo) molte delle capacità vennero disinstallate proprio per evitare "malintesi".

L'idea è piaciuta, tanto che in moltissimi ci lavorano e ci credono grazie a questo tentativo senz'altro eccessivo ma lungimirante e visionario.

Quindi, da qui a scrivere che è un "venditore di fumo", direi che ce ne passa, soprattutto quando si considerano tutti i grandi imprenditori, non solo quelli che ci mettono la faccia. Ma insomma, si tratta di valutazioni. Solo sul lungo termine si vedrà chi ha ragione.
Da un'altro punto di vista mi sono convinto che, come segnalato giustamente da alcuni lettori, il problema dell'autopilot sia la relazione non chiara con il pilota umano che sta alla guida del veicolo. Questo tipo di problemi è tipico della transizione verso l'automazione e, più in generale, dell'"hic sunt leones" piuttosto che indice di chissà quali diabolici tratti umani.

Anche ai primi tempi dell'avionica fly-by-wire accadde qualcosa del genere. RIcordo per esempio l'incidente che coinvolse il primo volo commerciale di un Airbus A320 (AF296, Mulhouse, 1988) in cui l'avionica, almeno secondo il capitano, si "rifiutò" di aprire gli elevators, come richiesto dal pilota perché, essendo vicino alla velocità di stallo, era entrato in "alpha mode".

In quel caso la relazione confusa tra responsabilità del pilota e responsabilità dell'elettronica costò la vita a 3 persone. Questo però non interruppe gli studi sull'avionica di bordo, né la condanna di Airbus come compagnia, ma portò ad un progresso nella progettazione e nelle procedure di volo. E nessuno credo accuserebbe, almeno a distanza di tempo, il CEO della Airbus di essere uno "str***o" o un "venditore di fumo" per questo.

E' questo che dico: state creando una narrazione in cui un cattivo borioso (Elon Musk) pur di promuovere la propria compagnia se ne frega della sicurezza e dei test. Non vedo alcun fondamento a questa teoria. Io credo piuttosto che come spesso accade con le novità tecnologiche Musk abbia sottovalutato la difficoltà di creare un veicolo in grado di guidare autonomamente senza uscire MAI - e non "raramente" - dall'"envelope" per il quale è progettato, sottovalutando in particolare la difficoltà di gestire i rapporti tra sistemi di guida automatici e pilota, tutti ancora da definire.
Caro Angelo C.,

quello che contesto non sono tanto i concetti e i dubbi, che spesso condivido, quanto la "sicumera" con cui molti si gettano in giudizi netti su cose complesse e articolate come questa.

Personalmente ritengo che molti dei problemi che sottolinei, soprattutto quello delle radiazioni, siano un grave ostacolo ai sogni di inviare equipaggi su Marte in "pochi" anni. Al punto che ho sempre considerato un errore focalizzarsi su Marte piuttosto che su un ritorno in grande stile sulla Luna al fine di installarvi una base scientifica più o meno permanente (tipo South Pole Staiton, per intenderci...) e di testare tecnologie a "soli" 3 giorni da "casa", che è pur sempre un quinto/decimo circa del tempo che ci vuole per un MedEvac da South Pole, per inciso.

Allo stesso tempo però lascio ampio spazio alla possibilità di valutare le cose in maniera errata. La stessa NASA, per esempio, considera il problema delle radiazioni "risolvibile"

https://www.nasa.gov/feature/space-radiation-won-t-stop-nasa-s-human-exploration

e invece di baloccarsi a discutere SE si può fare o meno, lavora sul COME farlo. intorno al 2030-40. Ben oltre i sogni di Musk - cui per inciso non ho mai "creduto" - ma non troppo oltre.

https://www.nasa.gov/content/journey-to-mars-overview

Ora scusami, ma se anche non scommetterei su un umano su Marte entro il 2035, ammetto che potrei sbagliarmi. Cosa che tu NON fai ("La verita', come sa benissimo chiunque capisca un minimo di razzi e ingegneria spaziale, e' che tutta la roba presentata da Musk era fuffa.").

Rimango sempre perplesso nella capacità degli esseri umani, inclusi molti miei colleghi, di considerare come "impossibili" cose che poi, una volta realizzate, vengono presto archiviate come "ovvie". Ricordo ancora al primo lancio di un Falcon 1 le prese in giro che il personaggio si prese quando il secondo stadio cominciò a "precedere" fino a distruggersi. Musk a dire che il lancio aveva dimostrato che le cose funzionavano e che il commissioning può prevedere la presenza di errori residui, mentre gli osservatori ignoranti di come funzionano le cose a questo livello - ME COMPRESO - a dire che i suoi sogni si sarebbero conclusi qui.

La differenza tra me e (molti) altri? Che io mi ricordo bene della cantonata che presi, ed ammetto l'errore di valutazione che feci, facendone "tesoro" metodologico. La stessa cosa si ripeté con la questione del riutilizzo, al punto che mi misi a fare alcuni conti back-of-the-envelopes per VERIFICARE se era fattibile o no. Conclusione: lo era. Oggi nessuno si metterebbe a discutere la fattibilità tecnica, ma nessuno sembra ricordarsi che anche questa era considerata una "boutade" dai più.

Te dici che la convenienza economica del riutilizzo non è ancora dimostrata. Vero, ma fino ad un certo punto. Infatti 1) non ha nemmeno dimostrato il contrario, al contrario dello Space Shuttle, e il sistema progredisce sia come prestazioni che come riduzione dei problemi. 2) in realtà con il riutilizzo si sono già avuti un gran numero di benefici, inclusa la possibilità di miglioramenti incrementali e a costi ridotti. Per non parlare del recente volo a costo bassissimo del FH, altra cosa che sembrava una "balla". Fino a pochi mesi prima del suo esordio (adesso anche Arianne si trova in braghe di tela...).

Insomma, quello che non condivido non sono i singoli punti, ma questo accanimento nei confronti del personaggio, che porta a perdere obiettività e a vedere solo i fallimenti di cui è lastricata questa strada, esattamente come i fanboy vedono solo i successi.

L'errore metodologico è lo stesso. Calma e gesso: non è ancora chiaro se il BFR sia fattibile o no, e in quale arco di tempo.
@pgc
il CEO della Airbus di essere uno "str***o" o un "venditore di fumo" per questo.

Stai confondendo pere con ananas. Per vendere i suoi aerei, Airbus non punta scientemente sulla componente emozionale e sull'hype del prodotto, magari su un nome o sull'immagine del brand, mistificando la realtà per vendere di più e proteggendosi con due righe su un manuale. Musk sì.

Per questo dico che Musk è str***o, perché raccoglie i frutti delle sue strategie di marketing e ne lascia pagare il prezzo a tutti noi.

state creando una narrazione in cui un cattivo borioso (Elon Musk) pur di promuovere la propria compagnia se ne frega della sicurezza e dei test. Non vedo alcun fondamento a questa teoria

Certo che non ha fondamento, perché non è l'accusa che ho mosso io, ma quella che tu mi hai assegnato (o hai assegnato anche a me) per far tornare la tua immagine mentale.

L'accusa che ho mosso io non è che Musk se ne frega della sicurezza e dei test, è che Tesla (dietro indirizzo di Musk) crea nel cliente un'immagine pericolosamente falsata dei suoi prodotti, così tanto da indurli addirittura a comportamenti pericolosi, parandosi poi il deretano con avvertimenti scritti su manuali che -è risaputo- in media gli utenti non leggono.

La cosa non vale solo per lui: in due paragrafi hai preso la mia accusa precisa, l'hai paragonata con qualcosa di completamente diverso e poi l'hai travisata in qualcosa che non ho detto. Ho denunciato quello che ha fatto Musk, denuncio allo stesso modo quello che hai appena fatto tu. Non è che mi sta antipatico Musk perché è Musk, mi stanno antipatici questi comportamenti.
To L,

Ho respinto il tuo commento. Gli insulti alle persone non sono accettabili. Riformula il tuo commento, se vuoi criticare costruttivamente. Grazie.
@SirEdward

avvertimenti scritti su manuali che -è risaputo- in media gli utenti non leggono.

Non è questo il punto. Il fatto che l'utente non legga il manuale è un problema e una carenza dell'utente.

Il punto è che:
- il sistema richiede significantly more attention than just driving the vehicle normally e quindi è più dannoso che utile, nonostante sia spacciato per "Auto"pilot.
- il sistema has the potential to drive into a gore point and crash into a barrier tanto che for example, it cannot detect stationary objects ed è quindi intrinsecamente pericoloso.
- Ergo: il sistema should not be tested in beta, on the open road, and by normal consumers.

Per il resto condivido appieno la tua analisi.
@ pgc
Leggendo il tuo commento direi che sui dettagli alla fine siamo d'accordo su (quasi) tutto, mentre abbiamo una visione un po' diversa della "big picture", vale a dire l'approccio metodologico di Musk nel presentare i suoi "sogni" e le sue reali intenzioni dietro questo approccio.

Tu dici "se anche non scommetterei su un umano su Marte entro il 2035, ammetto che potrei sbagliarmi. Cosa che tu NON fai."
Io sono perfettamente d'accordo con te e anch'io credo che una missione umana su Marte sia fattibile con i giusti investimenti e nei tempi giusti, ma continuo a dire che tutta la roba presentata da Musk era fuffa. Perche' Musk non ha parlato di uno o due astronauti che vanno a piantare una bandierina dalle parti delle Valles Marineris, ma ha fatto vedere illustrazioni di omini felici che costruiscono le loro graziose casette su Marte, dichiarando che QUESTO e' il suo obiettivo e che sara' in grado di realizzarlo entro pochi anni. E scusami, io non posso credere che Musk sia cosi' sprovveduto da non sapere che questa roba sono solo disegnini da film di fantascienza e che, anche ammettendo di avere a disposizione gli enormi finanziamenti necessari per mettere in piedi un programma del genere, per pure ragioni tecnologiche e regolamentari (ci sono degli standard ben precisi da seguire per qualificare le tecnologie necessarie) non si potrebbe mai partire prima di 20-30 anni almeno. Ripeto: per una VERA colonizzazione, non per mandare un paio di astronauti a piantare una bandierina, cosa per la quale alcuni dei regolamenti volendo si possono anche bypassare, prendendosi ovviamente il rischio di un fallimento, come fu fatto a suo tempo per le missioni lunari.

Quindi l'unica spiegazione, almeno per me, e' che Musk sia ben consapevole del fatto che sta vendendo figurine da film di fantascienza spacciandole per imminente realta', e lo faccia per pure ragioni di marketing (magari per trovare parte di quegli investimenti iniziali di cui sopra...)

Poi scusami, ma il paragone con i Falcon non regge. Non pui dire "visto che ha fatto i Falcon nonostante tutti fossimo scettici, puo' fare anche questo"... tra le due cose ci sono ordini di grandezza di differenza, in termini di costi, di complessita' e di regolamenti (qui non si parla di un lanciatore "unmanned", ma di volo umano...)

In conclusione: nessuno nega il valore del lavoro di Musk e il contributo che SpaceX ha dato all'industria dell' "access to space", ma cio' non toglie che certe sue strategie di marketing disinvolte lascino molto a desiderare e portino, inevitabilmente, a fargli perdere credibilita' non solo sulle cose chiaramente infattibili (la Mars colonization), ma anche su cose piu' realizzabili come la mobilita' elettrica o i lanciatori riutilizzabili. Tutto qua.
@brain_use

Sì, sì, comprendo. E' proprio che io ho fatto un'osservazione diversa, e se pgc risponde con parole prese da un mio commento, gli chiedo che risponda a quella.

C'è anche l'osservazione che anche tu hai fatto, alla quale rispondere, ovviamente.
Il fatto che l'utente non legga il manuale è un problema e una carenza dell'utente.

Dipende da come è fatto il manuale.
Se, mera ipotesi, due informazioni importanti sono diluite in cento altre irrilevanti, non si può incolpare l'utente se capitano guai.
O se, non mera ipotesi, il manuale si intitola "Istruzioni d'uso del pelapatate", e poi a pagina X dice "beh, in realtà il nostro strumento le patate le pulisce e le disinfetta, però la buccia la dovete comunque togliere voi", idem.
@Martino:

Sì, concordo perfettamente che il mero demandare alle "avvertenze d'uso" del manuale suona molto di escamotage legale e per nulla di attenzione all'utente/consumatore.

Ma quel che mi premeva sottolineare è che il problema non si limita alla determinazione della responsabilità in caso di incidente ma va ben oltre e riguarda l'usabilità, l'utilità e l'opportunità stessa del dispositivo. Almeno allo stato attuale della tecnologia.
@ pcg:

"Oggi no, quando uscì la prima versione dell'autopilot si."

A mio parere, avendo lavorato nel settore editoriale automotive per molti anni, almeno Mercedes fra le tedesche aveva già più o meno la stessa tecnologia a disposizione, è solo che i tedeschi sono molto più conservativi e nonostante ad esempio la tecnologia a bordo di una Mercedes Classe S sia più o meno la stessa di quella di una Tesla Model S (sorbole, stessa sigla!) non ce li vedo proprio i rigidi dirigenti teotonici a fare una conferenza stampa in jeans e maglietta cazzeggiando su auto che si guidano da sole...

L'impressione è che Tesla salti pari la fase di test e la faccia fare agli utenti, ma nei reparti sviluppo delle varie case ci sono moltissime tecnologie che per un motivo o un altro non vengono messe in produzione.

Honda per esempio ha da alcuni anni una moto che si guida da sola, incluso mantere l'equilibrio sia dinamico che statico (una sorta di surplace come fanno i ciclisti ai semafori) ma solo recentemente hanno parlato di una possibile futura commercializzazione di questa tecnologia, e lo fanno in maniera piuttosto discreta.
Sisifo: "almeno Mercedes fra le tedesche aveva già più o meno la stessa tecnologia a disposizione"

Potrei sbagliarmi, ma non mi sembra sia andata così.

E' vero che il sistema Mercedes Distronic (2009!) è la prima implementazione di un cruise control adattivo in un veicolo commercializzato, ma non mi sembra che si possa dire che questo sistema equivalga a quanto fatto da Tesla, in quanto Mercedes usava un radar, non una telecamera in grado di *interpretare* la realtà circostante.

BMW, Volvo, invece avevano contrattato invece Mobileye (sistema EyeQ1) fin dal 2008. Tuttavia, la prima implementazione di questi sistemi in un veicolo commerciale sia avvenuta con Tesla Model S con la versione Q3.

Se hai informazioni diverse fammi sapere che mi interessa. Non ho alcun motivo per difendere Tesla ma vorrei che tutti gli interlocutori di questa peraltro interessante discussione facessero lo stesso. Io vedo un intento "iconoclasta" a distruggere un'azienda che ha fatto molto per il progresso tecnologico e che è stata pionieristica in molte cose. Certamente, come in tutti i casi in cui si tenta di fare qualcosa di nuovo, ha fatto diversi errori.

Dire che l'abbia fatto unicamente per alimentare l'ego del suo "creatore" mi sembra, come ripeto da tempo, un meccanismo già visto tante volte e che ha colpito Bill Gates (una volta, forse qualcuno lo ricorda, visto come il diavolo da molti), Steve Jobs e tanti altri che hanno rivoluzionato un settore in prima persona. A me Musk sembra una persona come un'altra, con i suoi pregi e difetti di "vip". Tutto qui.


Non stiamo parlando di una strage ma di un numero limitato di incidenti
Qualunque pilota automatico aeronautico, dopo un incidente del genere sarebbe stato immediatamente ritirato, e riconsegnato al mercato solo dopo approfonditi test.

Ricordiamo il problema del 787 con le batterie, che non ha causato neanche un ferito. Tutti i 787 a terra per un mese e mezzo finché Boeing non ha dimostrato di aver sistemato il problema. E prima, il problema degli MD80 con il trim della coda (https://it.wikipedia.org/wiki/Volo_Alaska_Airlines_261).
Camicius,

"Ricordiamo il problema del 787 con le batterie, che non ha causato neanche un ferito. "

Bé, rappresentazione discutibile del problema... Il pacco batterie presentò malfunzionamenti (un incendio, fumo, surriscaldamenti) in 3 aeromobili in soli 10 giorni, tra il 7 e il 16 gennaio 2013. Uno di questi aerei era in volo, gli altri 2ma terra. E parliamo di una manciata di aerei di quel tipo consegnati in tutti il mondo, non di diverse migliaia. Solo il 16 la FAA prese la decision di mettere a terra tutti i 787 esistenti in attesa di verifiche. E ci mancherebbe altro che non l'avesse fatto...

Detto questo, credo che il punto sia che la gestione degli aereoplani dell'aviazione civile (trasporto pubblico, costi per veicolo elevatissimi, capienze elevate, manutenzione centralizzata e regolata nei minimi dettagli) è molto diversa da quello del traffico di superficie (trasporto privato, costi per veicolo moderati, capienze ridotte, manutenzione lasciata in gran parte a privati).

In questo senso, nonostante i problemi di interfaccia uomo-macchina e tanti altri aspetti siano comuni ad entrambi, si tratta di cose diverse. Ciò con cui il caso Tesla va comparato sono le altre MARCHE. Si scopre allora che i richiami avvengono in genere dopo un gran numero di incidenti (Ford Pinto, Toyota mat problem) e senza fermare l'intera flotta, ma che le prove di self-driving cars sono state interrotte dall'oggi al domani anche in Arizona dopo un singolo incidente, che Tesla ha disabilitato molte delle caratteristiche di guida automatica nelle sue auto dopo un anno.

Come mi ostino a ripetere (sembrando, lo so, un disco rotto), **le critiche hanno senz'altro fondamento, ma l'accanimento verso Tesla è un tema di moda e non tiene conto della reale casistica degli incidenti né dei casi di vita salvati dal sistema autopilot**.
@pcg
Intendevo esattmaente questo, molte case hanno testato tecnologie analoghe a quelle di Tesla ma hanno deciso di essere più cauti nella messa in produzione, nel caso di Mercedes immagino che lo spirito conservative del marchio abbia influenzato molte decisioni, ma anche la preoccupazione dal punto di vista della sicurezza relativa a tecnologie che è impossibile testare in ogni situazione.

Sistemi analoghi all'Autopilot sono disponibili su un gran numero di vetture di diversi marchi, ma sono presentati come *ausilio* alla guida e richiedono di solito almeno di tenere le mani sul volante, oppure sono attivi solo se il GPS conferma che l'auto si trovi su una delle strade certificate dal software (GM attiva una sorta di autopilot solo sulle autostrade con divisione delle corsie).

Insomma, a mio parere (ma ti garantisco che è un parere condiviso con la stragrande maggioranza degli addetti ai lavori) il problema di Tesla è che hanno voluto essere quelli un po' più avanti di tutti gli altri senza le dovute cautele necessarie per un prodotto che in fondo è un pezzo di metallo da due tonnellate che viaggia ad alta velocità a pochissima distanza da cose e persone.

Quento all'efficacia di sistemi di guida autonoma, ho già scritto in un altro post il risultato di un test (con auto BMW, Mercedes-Benz, Tesla e Volvo) fatto per due anni su un'autostrada intorno a Melbourne, un ambiente limitato che in teoria avrebbe dovuto essere il terreno di prova ideale: limiti di velocità non riconosciuti, precedenza non data alla fine delle rampe o ad auto in entrata sull'autostrada (in Australia un auto che è nella corsia di accelerazione ha la precedenza se è davanti a quella già sull'autostrada), cambi di corsia sballati per via della grafica dei tunnel (!) e così via.