Cerca nel blog

2018/03/20

Auto a guida autonoma coinvolta in un investimento mortale

Ultimo aggiornamento: 2018/03/22 00:55.

Un’auto a guida autonoma di Uber, una Volvo XC90, ha investito una donna che stava attraversando la strada spingendo la propria bicicletta a Tempe, in Arizona, intorno alle 22 locali di domenica scorsa.

L’incidente è avvenuto su un rettilineo con visibilità elevata. L’auto era in modalità di guida autonoma con una persona al posto di guida (una dipendente di Uber), procedeva a circa 65 km/h e non ha frenato in modo significativo.

La donna investita, Elaine Herzberg, è morta in ospedale per le ferite riportate. Il programma di sperimentazione della guida autonoma di Uber è stato sospeso.


È presto per capire a fondo la dinamica e le responsabilità: ma sta di fatto che il giorno che temevamo è purtroppo arrivato. Le implicazioni e conseguenze della prima morte accertata di una persona in un incidente che coinvolge un’auto pienamente autonoma saranno inevitabilmente pesanti su tutto il settore nascente delle automobili senza conducente.

Maggiori dettagli e immagini dell’incidente sono su Electrek e sul Phoenix New Times. La conferenza stampa della polizia di Tempe è qui.

L’auto è autonoma ma non elettrica (ha un motore a benzina) ed è dotata di numerose telecamere che hanno registrato l’incidente. Aggiornerò questo articolo man mano che vi saranno informazioni precise e accertate.


2018/03/21


Repubblica (a firma di Vincenzo Borgomeo) ha pubblicato un articolo pieno di errori, dall’ortografia di base (“driveless”, "detenction”) alla fisica e all’informatica, e saturo di luoghi comuni terroristici. Ne trovate qui su Archive.is una copia.

È un esempio interessante di uno dei motivi per cui le auto elettriche, quelle autonome e in generale quelle informatizzate vengono snobbate dalla stampa: i loro giornalisti, formatisi su carburatori e pistoni, non capiscono un’acca di queste nuove tecnologie e non fanno alcuno sforzo per aggiornarsi e capirle. Sono rimasti indietro, superati dai geek dell’informatica, e scelgono di denigrare quello che non capiscono.


2018/03/22 00:55


La polizia di Tempe ha rilasciato il video dell’incidente. Attenzione: è la realizzazione del peggior incubo di chiunque guidi. Ringrazio Fabio per la segnalazione.



Prima di lanciarsi in considerazioni o commenti, non dimenticate che questo video documenta la morte di una persona.

Sul piano freddamente tecnico, è da capire come mai il LIDAR o radar dell’auto non ha rilevato la donna, che ha attraversato la sede stradale provenendo da sinistra e quindi sembrerebbe essere stata a lungo nel campo visivo dei sensori dell’auto anche se non illuminata dai fanali.


Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.

269 commenti:

«Meno recenti   ‹Vecchi   201 – 269 di 269
Liuk ha detto...

Un pochino - forse - la responsabilità è anche di chi ha pensato di fare una specie di isola pedonale con tanto di lastricato a mattonelle nello spartitraffico: se ci avessero messo solo alberi/siepe, la signora non avrebbe proprio potuto attraversare in quel punto. Impedire di attraversare in quel punto credo sia meglio che mettere dei cartelli indicando di andare al semaforo...

ebonsi ha detto...

@pgc: "Per Tesla è diverso. Si tratta di un livello 4 e richiede le mani sul volante."

Ecco, questo è un punto che mi "intriga" molto. Quali sono, esattamente, i "rapporti" tra il sistema (semi) autonomo, e il conducente umano? Chi decide cosa, e chi può "override" l'altro? Chi ha guidato una Tesla abbastanza a lungo, da poter fornire una risposta?

L'integrazione uomo/macchina è meno intuitiva di quanto non possa sembrare, anche e sopratutto se l'umano si sente, e magari è davvero esperto. La prendo alla lontana:

gli aerei sono sempre stati tradizionalmente progettati per avere un equilibrio stabile: se il pilota molla i comandi, l'aereo mantiene cioè rotta, velocità e assetto costanti, o al massimo si mette in una leggera picchiata. E' necessario che il pilota agisca più o meno bruscamente sui comandi, per ottenere cambiamenti più o meno bruschi nei parametri di volo.

Gli aerei da combattimento delle ultime generazioni sono invece a cosidetta "stabilità rilassata": l'aereo è instabile di suo, e per mantenere rotta, quota e assetto sono necessarie continue piccole correzioni alle superfici di controllo e alla manetta. Naturalmente il pilota non sarebbe in grado di gestire tutto questo nei tempi richiesti, e quindi l'aereo è di fatto gestito da calcolatori: se il pilota tiene la cloche al centro l'aereo continua ad andare dritto, anche se per farlo sta in realtà effettuando continue manovrine.

Bene, durante lo sviluppo del nuovo caccia svedese (lo JAS-39 Gripen) due prototipi andarono persi esattamente nelle stesse circostanze: il pilota (il capo collaudatore della Saab, e quindi un tizio con un'esperienza enorme) portò l'aereo al limite di manovra e oltre (come bisogna pur fare, durante lo sviluppo di un nuovo velivolo avanzatissimo), ma poi non sebbe fidarsi di lasciare ai calcolatori il compito di riportarsi in condizioni controllate, e cercò invece di intervenire. Crash 1 e Crash 2 - non perché le decisioni del pilota fossero sbagliate, ma perché andarono a sovrapporsi a quello che i calcolatori stavano già facendo. Il pilota si salvò in ambedue i casi, ma immagino ci siano state discussioni abbastanza vivaci a livello manageriale.

Come funziona, nella Tesla? Cosa succede, se il conducente "crede" che il sistema di guida autonoma non stia funzionando, e frena e/o sterza? O, in un caso "non-Tesla" simile all'incidente di cui stiamo parlando: cosa succede, se il sistema autonomo pensa di evitare la ciclista sterzando bruscamente a sinistra, e invece l'assistente umano interviene bloccando le ruote in una frenata disperata?

contekofflo ha detto...

Ebonsi introduce nella discussione un elemento estremamente interessante. Il fenomeno di cui parla si chiama PIO (pilot induced oscillations, oppure più propriamente pilot in-the-loop oscillations).
È uno dei problemi maggiori che si incontrano nel progetto di un sistema di controllo ed è responsabile di numerosissimi incidenti in velivoli militari e non solo (la tragedia del volo AA587 a New York fu dovuta sostanzialmente ad una variante del fenomeno).
Uno dei fattori di difficoltà è che esistono piloti molto diversi: ci sono quelli aggressivi e quelli più "gentili"; in più in condizioni di stress la reazione del pilota può essere molto più brusca. Il sistema di controllo deve essere robusto e gestire correttamente tutte le circostanze.

Nel caso automobilistico il pericolo è forse ancora maggiore, perché:
- la variabilità dei comportamenti è ancora maggiore rispetto ai piloti che vengono comunque da un addestramento standard
- l'automobilista non è assolutamente preparato a gestire casi di questo tipo, a differenza del pilota che conosce il rischio e svolge un addestramento dedicato

Senza essere eccessivamente pessimista, quando questi sistemi semi-automatici diventeranno diffusi e alla portata di tutti il PIO diventerà uno dei maggiori problemi.

Guastulfo (Giuseppe) ha detto...

@ebonsi
Come funziona, nella Tesla? Cosa succede, se il conducente "crede" che il sistema di guida autonoma non stia funzionando, e frena e/o sterza? O, in un caso "non-Tesla" simile all'incidente di cui stiamo parlando: cosa succede, se il sistema autonomo pensa di evitare la ciclista sterzando bruscamente a sinistra, e invece l'assistente umano interviene bloccando le ruote in una frenata disperata?

Basta fare una leggera forza sullo sterzo perché il sistema automatico di guida passi i comandi al conducente.

Questo è quello che ho visto nei video su youtube e penso che, se fossi il programmatore di questi sistemi, farei sempre prevalere la decisione dell'uomo su quella della macchina. Almeno per ora

Paolo Attivissimo ha detto...

Liuk,

mi hai mandato un commento da non pubblicare, contenente una segnalazione.

Non capisco cosa vuoi dire. Puoi spiegarti meglio usando una mail? Grazie.

Stupidocane ha detto...

ebonsi,

Secondo me sbagli approccio. Per scrivere giudizi così netti, dovresti avere in mano i dati di Uber e confrontarli con quelli pre-guida automatica. Se il numero di incidenti fosse superiore proprio durante il periodo di test del sistema autonomo, avresti pienamente ragione a dire che "se ne sono impipati", ma non avendoli non dovresti sbilanciarti.

Metti caso che la percentuale di incidenti della flotta, anche mortali, sia sensibilmente più bassa, avrebbero ancora torto ad "impiparsene"?

Tutto qua.

SirEdward ha detto...

@Unknown

Se pesti sul freno non sei capace anche a girare lo sterzo?

Dipende molto dalle situazioni, ma la mia reazione primaria è pestare sul freno più forte che posso. Che è anche la reazione più sicura. Sterzare istintivamente è un modo fantastico per finire contro altri veicoli, oggetti o pedoni e fare ancora più danni.


che avevate circa 40 mt buoni per iniziare


No, ce n'erano 29-33. 25-27 (o meno) se hai bisogno che i fati illuminino l'ostacolo (ma come detto da altri, per un conducente attento la possibilità di vedere la ciclista al buio non è da escludere, per quanto non sia certa.

Pedoni e biciclette sono già più difficili da notare delle automobili. La sera è ancora più difficile, qualche volta diventano proprio invisibili, anche in città. Per questo non mettere le luci è da pazzi criminali. D'altronde il numero di pedoni/ciclisti investiti di notte è alto, e spesso la giustificazione è "non l'ho visto".

@ Fozzillo

Ho una certa esperienza di telecamere, da quello che vedo di luce ce n'era abbastanza.

Quello che dici è probabilmente corretto (però occhio che le telecamere della tv sono regolate per esporre correttamente quel buio, sono altrettanto poco rilevanti al nostro discorso quanto la dashcam da sola), ma non necessariamente basta per permettere di vedere. Basta una luce, anche lontana, per abbagliare anche poco e rendere invisibile il pedone o la bici. Non sto dicendo che sia andata così, ma non è chiaramente definibile la visibilità reale della ciclista. La tua è una osservazione interessante.

Ai fini del mio ragionamento resta tra l'altro il momento in cui è entrata nella corsia dell'auto


Ma soprattutto se hai la visibilità "corta" non puoi guidare ad una velocità che non ti permetta di fermarti in tempo, è inaccettabile.


E' pericoloso. Tuttavia il limite di velocità legale prescinde dalla visibilità, e definire la visibilità reale non è facile per chi guida: la maggior parte delle persone ignora il problema costantemente . E i risultati si vedono (nebbia, buio, curve).

Guido Pisano
quello che in caso di incidente si fa piu' male deve stare piu' attento.

Concordo nel senso generale; in realtà nemmeno tanto più attento, basterebbe che stesse -un minimo- attento. E così l'altro. La sicurezza è come l'amore, si fa meglio in due.

@ ST ha commentato:

sulla sterzata al posto di frenare è vero. Ed è vero che al 99% u. Guidatore umano non avrebbe evitato l'incidente ma qui stiamo parlando di un computer non di un umano.

Sì, il sistema di guida autonoma di UBER ha fallito; su questo siamo tutti d'accordo, mi sa.

@Carson

in base ai tuoi dati (che mi tornano al di fuori di piccolissime differenze) se l' auto avesse funzionato correttamente si sarebbe dovuta fermare in un range da un metro a 9 metri prima dalla ciclista.

Quanto prima non mi sono messo a calcolarlo, ma se la guida autonoma avesse funzionato, penso che sarebbe riuscita a evitare l'ostacolo (per via dei tempi di reazione molto inferiori a quelli umani). L'ho quasi dato per scontato, per questo non mi sono messo a calcolare sulla guida autonoma (di cui peraltro non abbiamo i valori di riferimento)


@pgc

"ricordati che questo è un paese protestante, non cattolico: qui non esiste il perdono come in Italia quando sbagli".

Così penso sia esagerato, ma un po' di più di questo pensiero ci aiuterebbe.

ebonsi ha detto...

Io ho chiesto:

"Come funziona, nella Tesla? Cosa succede, se il conducente "crede" che il sistema di guida autonoma non stia funzionando, e frena e/o sterza?"

Guastulfo (Giuseppe) ha cortesemente risposto:

"Basta fare una leggera forza sullo sterzo perché il sistema automatico di guida passi i comandi al conducente.

Questo è quello che ho visto nei video su youtube e penso che, se fossi il programmatore di questi sistemi, farei sempre prevalere la decisione dell'uomo su quella della macchina. Almeno per ora".

E allora, qui c'è qualcosa che - molto probabilmente per miei limitazioni - proprio non arrivo a capire.

O meglio: capisco benissimo che quella descritta sia, per la società Tesla, una politica prudente e ragionevole, sia sul piano dello scarico di responsabilità che da quello commerciale (una vettura che per progetto impedisce al conducente umano di riprendere il controllo a volontà sarebbe invendibile). Però così si arriva ad un'enorme contraddizione.

La vera ragion d'essere, la funzione fondamentale dei sistemi di guida autonoma non è, o quanto meno non dovrebbe essere, quella di permettere di staccare le mani dal volante quando si sta viaggiando in condizioni ottimali. Questi sistemi sarebbero invece preziosissimi in condizioni d'emergenza, per evitare un incidente o almeno per ridurne le conseguenze. Questo perché, come è stato detto e ripetuto, non si stancano, non hanno colpi di sonno, non bevono ecc., e sopratutto perché se ben progettati (non come quello della Uber) dovrebbero essere in grado di reagire ad un'emergenza con tempi molto più rapidi, e in modo più corretto rispetto ad un conducente umano.

Ma se invece si permette al conducente umano (che magari è sbronzo o fatto, ha dimenticato a casa gli occhiali, ecc.) di intervenire riprendendosi istantaneamente il controllo della vettura, tutta la faccenda dei vantaggi della guida autonoma finisce a donnine allegre. O sbaglio?

Fozzillo ha detto...

@SirEdward
Sì le ipotesi mie e di altri sono solo opinioni, congetture.
Ha ragione pgc che ci saranno dati a volontà a disposizione degli inquirenti per decidere.

Riguardo le telecamere, certamente la scena ripresa dal servizio della abc è fatta con calma, settando la telecamera al meglio per quella situazione, ma è raro che si possa superare la sensibilità dell'occhio umano, sempre ipotesi, congetture.

Credo che, almeno in Italia, il limite di velocità deve essere valutato dal guidatore a seconda delle condizioni ambientali, devo verificare in che termini.

Faccio una ultima ipotesi:
La signora potrebbe aver attraversato velocemente la prima parte della strada, aveva gli occhi abituati al buio e credeva che la visibilità fosse ottima quindi si è sentita al sicuro perché ormai era vicina al margine della strada e pensava che l'auto la avrebbe facilmente evitata (lo fanno tanti pedoni, stanno attenti finché pensano che non li hai visti, appena si accorgono che non li investirai se la prendono comoda).

L'auto automatica ha sbagliato, la safety driver era distratta e la combinazione di questi errori ha creato la tragedia.

Fozzillo ha detto...

@SirEdward
L'articolo 141 del codice della strada è molto chiaro, ad esempio il comma 2

2. Il conducente deve sempre conservare il controllo del proprio veicolo ed essere in grado di compiere tutte le manovre necessarie in condizione di sicurezza, specialmente l'arresto tempestivo del veicolo entro i limiti del suo campo di visibilità e dinanzi a qualsiasi ostacolo prevedibile.

3. In particolare, il conducente deve regolare la velocità nei tratti di strada a visibilità limitata, nelle curve, ...

SirEdward ha detto...

@Fozzillo

L'articolo 141 del codice della strada è molto chiaro, ad esempio il comma 2

2. Il conducente deve sempre conservare il controllo del proprio veicolo ed essere in grado di compiere tutte le manovre necessarie in condizione di sicurezza, specialmente l'arresto tempestivo del veicolo entro i limiti del suo campo di visibilità e dinanzi a qualsiasi ostacolo prevedibile.

3. In particolare, il conducente deve regolare la velocità nei tratti di strada a visibilità limitata, nelle curve, ...


Sì, certo, ma tutte le leggi esistono per dirimere i casi dubbi, non per essere perfetti descrittori della realtà o vincoli ottusi.

Così questa legge, che se tu rispettassi alla lettera ti porterebbe a essere sempre quasi fermo, e in alcuni casi ti impedirebbe di effettuare certe manovre (uscita dai parcheggi, immissione su certe strade strette, uscita da certi passi carrai, dai portici,

A volte anche la guida di sera (soprattutto in caso di pioggia) ti porta a incrociare altri veicoli e a essere abbagliato per qualche istante (e sto dicendo mentre l'altro veicolo passa, non dopo). Se dovessi rispettare questa legge alla lettera, non ti muoveresti più.

Così questa legge, che è fatta per aiutare le forze dell'ordine a dirimere le responsabilità in caso di incidente, ma non può fare il pelo dell'uovo a ogni singolo evento. Se la violazione non è palese, difficilmente viene utilizzata. Oppure viene utilizzata se colpisci un ostacolo fermo, un pedone a lato strada, un'auto parcheggiata. Allora ti viene contestato. Durante gli incidenti di questo genere, conta di più se eri dentro i limiti di velocità. Anche perché si assume, se il tempo non è estremo, che il limite di velocità descriva correttamente la condizione della strada.

Così pure qui: tutti i calcoli che ho fatto puntano più a dimostrare che la responsabilità è della ciclista. Ma parlano di tempi di reazione lunghi, di limiti di velocità rispettati, di momenti in cui chiaramente l'auto avrebbe potuto vedere la ciclista, del momento in cui la ciclista si è posta in traiettoria (se fosse stata in traiettoria sin dall'inizio del video, la responsabilità sarebbe stata dell'auto punto e basta). Perché sì, una persona con ottimi riflessi e grandi capacità di guida (o una guida autonoma funzioannte) avrebbe probabilmente evitato l'incidente, ma la condizione normale, quella che la ciclista avrebbe dovuto considerare, parla di gente non troppo abile con reazioni abbastanza lente. in quelle condizioni, urto inevitabile.

CimPy ha detto...

perché non ha sterzato anche di poco 



La domanda più corretta è "perché non ha frenato, anche di poco"



"era buio", o "io non sarei riuscito in tempo" come risposta non ci sta.



voglio essere compreso su questo:
non parlo del pilota automatico in generale, parlo in particolare dello specifico incidente - dimostra in modo manifesto che qualcosa non è stato programmato a dovere.

gius db ha detto...

pgc ha commentato:
]zac[
(2) come molti hanno intuito dalla visione del filmato, l'incidente poteva a quanto pare essere evitato. C'è stato un errore nel software di intelligenza artificiale che
]zac[

Qualsiai prodotto, tecnologia, manufatto umano, al suo primo rilascio pubblico, e' molto grezzo, pieno di limiti, e in certi casi puo' provocare gravi danni.
Che piaccia o meno qualsiasi cosa viene rilasciata prima che sia ottimamente sviluppata, i limiti di rilascio sono quando la cosa e' piu' utile che dannosa, non quando e' ottimamente sviluppata e rifinita (cosa impossibile se non con l'uso quotidiano e l'evolversi delle conoscenze).

E' piuttosto facile che con l'attuale stato primordiale di sviluppo della guida autonoma, nel sistema ci siano angoli ciechi.
(tipo il montante sinistro del parabrezza, che proprio nel caso di traiettorie a 90°, puo' nascondere completamente la presenza di persone o cose in rotta di collisione.)

P.S. Forse e' solo una sensazione ma mi sembra che la traiettoria del veicolo, una volta che la persona e' davanti al veicolo, si sposta leggermente verso destra.

(mi ha ricordato casi di attraversamenti imprudenti, in cui ho girato verso destra per schivare l'ostacolo lasciandolo alla mia sinistra e che l'ostacolo contemporaneamente, cercando di schivarmi, si e' portato di nuovo sulla mia traiettoria.
Ricordo il terrore quando, in un caso, ho ri-reagito girando verso sinistra, e l'ostacolo contemporaneamente ha deciso di ri-provare a schivarmi tornando indietro .... .)

MR ha detto...

Interessante articolo su Ars Technica che fornisce una prospettiva molto critica sulle automobili a guida autonoma di Uber:
https://arstechnica.com/cars/2018/03/video-suggests-huge-problems-with-ubers-driverless-car-program/

pgc ha detto...

MR,

Interessante. Ho letto molti articoli che arrivano alla stessa conclusione. D'altra parte... Waymo è Google, Tesla una grande azienda che produce auto innovative. Ford, Mercedes, aziende antiche e con una reputazione da difendere.

E Uber? una compagnia di... taxi in franchising. Tra l'altro, come scritto nell'articolo, piuttosto indifferente a questioni di sicurezza ed etiche.

Fozzillo ha detto...

Forse la cosa più utile da capire è come continuare a fare la sperimentazione in sicurezza, non è affatto bello vedere la safety driver così distratta, non potremo sapere se l'umano poteva evitare l'incidente era come se non ci fosse.

@gius db
don't get me started sul montante a destra!

@SirEdward

Capisco e ti do ragione, tu fai esempi di situazioni transitorie, eccezionali.
Mi hanno colpito tutti i commenti che dicevano che non si poteva fare niente, che era comparsa troppo tardi. Questo non lo accetto, per viaggiare a 80Km/h devi avere una buona visibilità, se non puoi vedere oltre lo spot dei fari devi andare più piano, anche se non stai guidando ma sei solamente un safety driver, altrimenti che ci stai a fare se non puoi essere in grado di intervenire?

Quel video non può rappresentare la visibilità in quel momento, evidentemente era migliore, la ciclista sarà stata nascosta da qualche bagliore o ombra e la la safety driver era distratta.

Zannaman ha detto...

Salve a tutti,

per chi volesse un'idea precisa sui diversi livelli di Guida Automatica questo è un buon sommario:

link

Per la cronaca, tutte le Tesla al momento in commercio (S, X, 3) sono livello 2 perchè richiedono ancora un conducente in grado di riprendere il controllo della situazione in pochi secondi e non hanno un sistema di emergenza che garantisca una frenata sicura in caso in cui il conducente non dia segno di poter o voler riprendere il controllo.
Al momento non ci sono (in commercio) automobili con Guida Automatica di livello 3, almeno come definito nello standard SAE menzionato sopra. Lasciate stare la pubblicità di Audi dell'ultima A8 :). Le case automobilistiche ci stanno ancora lavorando intensamente.
Secondo lo standard, una macchina con Guida Automatica di livello 5 non ha bisogno di conducente e può circolare in totale autonomia, essendo dotata di sufficiente ridondanza dell'elettronica a bordo tale da poter completare il viaggio anche in caso di problemi (e.g. uno dei computer di controllo si blocca e non riesce a ripartire).

Saluti,
Zannaman

Fozzillo ha detto...

Video e testimonianze sulla illuminazione adeguata della strada.
https://arstechnica.com/cars/2018/03/police-chief-said-uber-victim-came-from-the-shadows-dont-believe-it/

E' un peccato che la safety driver fosse così distratta, l'auto è in fase di sviluppo, ci sta che commetta errori, bisogna trovare metodi per sperimentare in maggiore sicurezza.

pgc ha detto...
Questo commento è stato eliminato dall'autore.
pgc ha detto...

Zanamann:

"Per la cronaca, tutte le Tesla al momento in commercio (S, X, 3) sono livello 2"

ho scritto, ricordando male, che le Tesla sono level 4, ma da quello che leggo mi sembra siano in realtà più 3 che 2 e in certe condizioni anche 4. Possono infatti prendere alcune decisioni autonome come superare un'auto che le precede o negoziare un incrocio. Le Tesla insomma, come dimostrato da alcuni filmati, possono procedere autonomamente da A a B, sebbene ci sia sempre una probabilità non marginale che prendano improvvisamente decisioni drammaticamente sbagliate, per cui l'autista deve rimanere sempre vigile alla guida.

Direi quindi che da certi punti A a certi punti B si comportano da level 2, per altri 3 o anche 4. Credo sia questo a rendere la categorizzazione SAE incerta. D'altra parte, sempre di definizioni si tratta.

p.s. Credo che la definizione dei vari livelli sia abbastanza qualitativa da permettere interminabili discussioni su casi specifici...

ebonsi ha detto...

Più ci penso, e più tendo a concludere che in linea teorica (e cioè dando per raggiunta e scontata un'affidabilità elevatissima se non totale dei sistemi), l'unico modo davvero pratico, razionale e accettabile di usare la guida autonoma sarebbe il Livello 5, cioè quello che voleva fare la Uber (prendendo troppe scorciatoie sulla pelle degli altri): dei taxi senza conducente, che ti vengono a prendere davanti casa, ti portano dove vuoi, e poi se ne vanno per i fatti loro. In questo caso, la fiducia totale del cliente nella vettura e nel suo "conducente" è implicita nel fatto stesso di montare sul tassì, esattamente come lo è se si prende un tassì con conducente umano: nessuno pretenderebbe mai di avere il diritto di sostituirsi a chi/cosa sta al volante se non gli piace il suo stile di guida, in un caso come nell'altro. O ovviamente, la responsabilità legale e penale è tutta del "conducente": se combina un guaio, non è che possa scapolarsela dicendi, "ah, ma il passeggero non prestava sufficiente attenzione".

Ma se invece continuiamo a pasticciare con soluzioni intermedie, in stile "sì, la vettura è totalmente autonoma ma il conducente deve sempre essere pronto a riprendere il controllo", mi spiegate a che ca---o serve tutto l'ambaradam? Per facilitare la guida e stancarsi meno, bastano già gli attuali sistemi di guida assistita. Si potrebbe forse espandere un pochino il ruolo di questi sistemi, ma non di tanto. Perché se invece devo comunque mantenere sempre l'attenzione concentrata sulla strada, sul traffico e su quello che la vettura sta facendo, perché non mi posso e anzi non mi devo fidare del sistema (perché se succede qualcosa, il fabbricante può scaricare la responsabilità su di me), allora preferisco guidare io: alla fin fine, lo stress è inferiore, e in certe condizioni mi diverto anche.

pgc ha detto...

ebonsi,

il quesito che poni è interessante, ma io partirei da casi reali invece che da speculazioni teoriche (detto senza polemiche beninteso).

Prendi questi filmato, per esempio:
https://www.youtube.com/watch?v=EAE0FLLUUGc

(ne puoi trovare molti altri online)

Non si può dare per certo che tutti questi episodi siano avvenuti con l'autopilot inserito (né che si tratti realmente di Tesla...) ma SE assumiamo che almeno alcuni lo siano, è chiaro che la vera utilità dell'autopilot siano quei decimi di secondo in cui reagisce ad un pericolo imminente PRIMA dell'autista. Il bilancio netto è che alla fine riduce il numero di incidenti, secondo le statistiche almeno. Bisogna partire da questo fatto, io credo.

Guastulfo (Giuseppe) ha detto...

@pgc
Non si può dare per certo che tutti questi episodi siano avvenuti con l'autopilot inserito (né che si tratti realmente di Tesla...) ma SE assumiamo che almeno alcuni lo siano, è chiaro che la vera utilità dell'autopilot siano quei decimi di secondo in cui reagisce ad un pericolo imminente PRIMA dell'autista. Il bilancio netto è che alla fine riduce il numero di incidenti, secondo le statistiche almeno. Bisogna partire da questo fatto, io credo.

Quelli del video potrebbero essere benissimo dei sistemi di guida assistita. Anch'io la penso come ebonsi: un sistema autonomo, ma che richieda la presenza del conducente, può rivelarsi più pericoloso nel caso in cui sia richiesto l'intervento del guidatore perché, quest'ultimo, interverrebbe troppo lentamente.

Se invece "invertiamo l'ordine dei fattori" il risultato migliora: se il guidatore umano si distrae interviene il sistema automatico di assistenza alla guida che non si distrae perché "tanto guida l'uomo"

Fozzillo ha detto...

Sì ma allo stesso tempo può incoraggiare il guidatore a distrarsi, tanto ci pensa l'autopilot.

In alcuni casi potrebbe aiutare facendo manovre che gli umani fanno male, prima fra tutte la frenataccia. Molti incidenti succedono perché gli automobilisti non frenano abbastanza, non sanno quanto può frenare l'auto perché non lo fanno mai, anzi sono abituati a fare frenate "confortevoli".
L'autopilota non ha la memoria muscolare corrotta dall'abitudine e frena al massimo.

SirEdward ha detto...

@pgc


Prendi questi filmato, per esempio:
[...]
(ne puoi trovare molti altri online)

[...]

è chiaro che la vera utilità dell'autopilot siano quei decimi di secondo in cui reagisce ad un pericolo imminente PRIMA dell'autista.


Sì, la vera utilità degli assistenti alla guida è quello. Sui filmati, ho guardato quello e un altro di quasi 4 minuti, in cui ci sono alcuni degli stessi spezzoni. In quello che hai postato tu c'è un caso e mezzo nel quale l'autopilot ha agito più velocemente del pilota. Molti degli altri sono non solo umanamente possibili, ma gestibili per chi sta un minimo attento.

In un paio i casi nei filmati ho visto io il problema prima che se ne accorgesse la Tesla del video. (quasi tutti quelli con spostamento di corsia laterale).

Penso che il vantaggio degli assistenti sia oggi duplice, in futuro triplice: reagisce prima di un essere umano, è attento anche quando l'essere umano è distratto, sa controllare il veicolo meglio dell'essere umano.

Ma per come è oggi, non è "meglio" di un umano. E' che il sistema automatico in aiuto all'essere umano possono ottenere un risultato di sicurezza notevole.

ebonsi ha detto...

@pgc: incidentalmente, per quanto mi riguarda puoi fare tutte le polemiche che vuoi. Sinché si resta del campo dei commenti razionali, la cosa non mi dà il minimo fastidio, e ci ho fatto da tempo la pelle dura (no qui, parlo della mia vita professionale). Comunque:

"è chiaro che la vera utilità dell'autopilot siano quei decimi di secondo in cui reagisce ad un pericolo imminente PRIMA dell'autista. Il bilancio netto è che alla fine riduce il numero di incidenti, secondo le statistiche almeno."

Certo, d'accordo al 100%, e credo di averlo anche detto: se i sistemi di guida autonoma hanno un senso, questo risiede appunto nel gestire in modo migliore le situazioni di emergenza. Ma allora, l'autorità del sistema deve essere totale. Che senso ha dire, "ah, ma il conducente umano deve comunque essere pronto a intervenire"? Vogliamo davvero arrivare alla replica (a potenza n) delle perdite dei prototipi Gripen di cui ho parlato, con il sistema che magari sta reagendo benissimo e il conducente che si sveglia di colpo dalla pennica, "MA CHE CA..O FAI, FREEEENA!!! STEEEERZAAA!!!". Oppure il sistema che non funziona, e il conducente che interviene in modo corretto - ma solo dopo aver capito che il sistema sta dando i numeri (vabbé, è digitale) e quindi con tempi di reazione da bradipo? Tutto questo serve ad una sola cosa: permettere a Tesla, Uber, Waymo & Co. di mettere in strada sistemi che magari funzionano ma magari qualche volta no, tanto se succede il patatrac la colpa è del conducente che non stava abbastanza attento. Grazie, ma a queste condizioni ne faccio volentieri a meno.

Io sarei ben disposto, ovviamente in presenza di dati verificabili, a fidarmi completamente di un sistema automatico (e solo automatico) che funzioni ragionevolmente bene: non pretendo che sappia sempre salvarmi in tutte le emergenze, né che non commetta mai errori - mi basta che guidi un po' meglio di me (ad oggi, 54 anni di guida e almeno 1.800.000 km senza incidenti). Però non voglio che mi vengano attribuite delle responsabilità non mie, solo perché qualcuno vuole arrivare sul mercato prima della concorrenza.

pgc ha detto...

ebonsi,

adesso capisco il punto. E probabilmente hai pure ragione che prima o poi si porrà il problema: la manovra: che ha portato al grave incidente, l'ha fatta l'autopilota o chi era al volante? La questione immagino sia complessa. Anche perché sulle statistiche che dicono che le Tesla con autopilota sono meno soggette ad incidente potrebbero contenere qualche bias...

Riguardo le polemiche il problema è che distraggono dal succo della discussione e tendono a radicare le opinioni. Per questo preferisco evitarle. Se si è "razionali", allora non si possono chiamare polemiche.

violetta ha detto...

@ Carson:

al guidatore con il cappello ci ho pensato anche io! Persino l'istruttore di scuola guida mi aveva detto di fare attenzione :)

CimPy ha detto...

"Prendi questi filmato, per esempio"


Toh, l'autopilot della Tesla è in grado di sterzare.


E adesso, che scuse può accampare quello di Uber?


Aspetta, proviamo così: "la macchina è innocente, si tratta di un bug più generale" (che è un po' come assolvere un Caino perché il problema per cui ha fatto fuori Abele mica era nel corpo, ma nell'anima...)
[Doh, solo per riflettere sulla questione, non per fare sterile polemica - è per dire che:


1) sì, se guida "la macchina", se ne assume pure le responsabilità


e


2)nello specifico dell'incidente in questione, quella specifica "macchina" ha sbagliato (e ha da pagare) ]

Unknown ha detto...

Questo é un video della volvo xc60, molto simile alla xc90 che ha ucciso la signora, mostra come in pochi metri possa evitare non una bici ma addirittura un tandem, ragionateci su. Un umano che sa guidare non l'avrebbe toccata!
https://m.youtube.com/watch?v=x_H4zhjLe60

Jotar ha detto...

Riporto un importante aggiornamento: alcune indiscrezioni suggeriscono che al momento dell’incidente uno dei sistemi di rilevamento dell’auto, il lidar (telerilevamento laser), fosse spento. Una scelta tecnica che potrebbe essere stata dettata dalla volontà di sperimentare un autopilota più economico da costruire e da vendere. L’ipotesi deve ancora essere confermata ma, se vera, farebbe aumentare le responsabilità a carico di Uber.

Jotar ha detto...

Forse la povera signora non sarà più considerata la prima vittima della guida autonoma, ma l'ennesima vittima dell'errore umano.

SirEdward ha detto...

@Unknown:

Questo é un video della volvo xc60, molto simile alla xc90 che ha ucciso la signora, mostra come in pochi metri possa evitare non una bici ma addirittura un tandem, ragionateci su.

100-200 kg di differenza, più kla differenza di lunghezza e passo, non sono pochi.

Ad ogni modo, quello è il meglio che l'auto possa fare, non lo standard. E' calcolato al meglio della condizione dell'auto, con un sistema opzionale di sospensioni (fa una differenza ENORME) e, soprattutto, non tiene in alcun conto il tempo di reazione umano.

Peraltro, -molto- spannometricamente, poiché l'auto è 4,69 metri, quei coni sono -circa- a una distanza di 4,5-5,0 metri l'uno dall'altro, e la distanza fra l'ultimo cono (dove inizia l'evitamento) e il primo laterale è di circa 9-10 metri (usa, -molto- spannometricamente, i tratteggi per verificare la distanza). Questo significa che l'auto necessita di 9-10 metri per evitare l'ostacolo. In condizioni PERFETTE e con un sistema di sospensioni speciale. Va detto che il test è a 77 kmh, sensibilmente più veloce dei 70 di Tempe, ma va anche ricordato che a 78 non ce l'ha mai fatta e che l'XC90 pesa di più, è più lungo, ha un passo più lungo.

Insomma, se tieni conto delle condizioni reali, dei tempi di reazione, degli equipaggiamenti, delle differenze dimensionali, ti rendi conto che sì, come già detto, in linea teorica un pilota esperto, attento, molto reattivo, avrebbe avuto i margini fisici per evitare l'impatto. Una persona normale in condizioni normali, no.


@Jotar

Forse la povera signora non sarà più considerata la prima vittima della guida autonoma, ma l'ennesima vittima dell'errore umano.


Io spero che sia sempre così. Nel momento in cui cominci a mettere la responsabilità sull'oggetto fisico e non sull'essere umano che l'ha costruito/progettato/manutenuto, hai aperto un buco di responsabilità al quale imputare qualsiasi cosa per la quale tu non sappia, o non voglia, trovare un responsabile.

Fozzillo ha detto...

@SirEdward

"Insomma, se tieni conto delle condizioni reali, dei tempi di reazione, degli equipaggiamenti, delle differenze dimensionali, ti rendi conto che sì, come già detto, in linea teorica un pilota esperto, attento, molto reattivo, avrebbe avuto i margini fisici per evitare l'impatto. Una persona normale in condizioni normali, no."

E se, come è stato mostrato, l'illuminazione stradale in quel punto era molto buona?
Il problema qui è che la persona normale in condizioni normali che avrebbe dovuto supervisionare il pilota automatico era completamente distratta.

Unknown ha detto...

Niente non si riesce a far ragionare chi non vuol intendere.....una lieve pestata al freno avrebbe abbassato la velocità di almeno 20 km/h più un lieve colpo di sterzo avrebbe evitato la signora, 40 mt abbondanti per far tutto ciò istintivamente, lo saprebbe fare anche uno senza patente. Chi pensa il contrario (lecito) segua il mio consiglio: Vada con i mezzi perché é inadeguato alla guida.

SirEdward ha detto...

@Unknown

@SirEdward

Niente non si riesce a far ragionare chi non vuol intendere

Esattamente. Hai mai provato a fare le manovre di evitamento? hai mai provato a lavorare sugli eventi inaspettati e i tempi di reazione?

No, si vede da come parli.

Peraltro, c'è sempre il problema principale. Lo SPAZIO, le capacità, l'attenzione, anche la fortuna, necessari a effettuare le manovre che descrivi

@Fozzillo

E se, come è stato mostrato, l'illuminazione stradale in quel punto era molto buona?

Che non è stato mostrato, in realtà. Le condizioni reali sono oggetto di dibattito, e ci vuole pochissimo per non vedere un pedone fuori da un lampione, come in questo caso.

Ad ogni modo, anche dando per buona la visibilità, non puoi calcolare le responabilità dell'incidente se non nel momento in cui la bicicletta è effettivamente davanti all'auto, tra i 29 e i 33 metri dal punto di impatto. Questo perché in strada ci si è in due, la sicurezza si fa in due, e se cominciassimo ad assegnare la responsabilità dell'incidente all'auto perché avrebbe dovuto prevedere un comportamento erratico, staremmo tutti fermi.

Anche la ciclista avrebbe dovuto immaginare cosa le sarebbe potuto succedere, e non l'ha fatto. all'automobilista puoi imputare la colpa se, una volta chiaro che i due erano in traiettoria di collisione, l'autista avesse potuto fermarsi ma non ci fosse riuscita.

Non è questo il caso, anche se l'autista era completamente distratta; l'autista ha avuto fortuna, avrebbe potuto investire, nelle stesse condizioni, un ciclista che stava procedendo lungo la stessa corsia. Non se ne sarebbe accorta e sarebbe stata tutta colpa dell'autista.

Invece, la signora in bicicletta ha assurdamente tentato di attraversare mentre stava arrivando un veicolo, la cui autista, per uno sfortunato caso del destino, non ha colto i segnali premonitori, e quando le traiettorie si sono sovrapposte non aveva modo, in condizioni di guida normali, di fermarsi.

Se l'autista fosse stata attenta e avesse notato la ciclista erratica, e l'avesse evitata con una serie di manovre, avresti dovuto congratularti con l'autista per l'attenzione e la bravura, perché avrebbe fatto più di quello che è richiesto dalla legge. Se quel "di più" non l'ha fatto, non puoi crocifiggerla.

Tra l'altro, lo ricordo, le condizioni di guida normali differiscono molto dalle migliori possibili; per questo si tende sempre a dare ampi margini.

Ripeto, l'autista è -molto fortunata- per il fatto che la sua disattenzione non abbia influito dal punto di vista della responsabilità, perché era completamente distratta. La ciclista invece è stata molto sfortunata, perché l'autista che avrebbe potuto fare quello che lei non aveva fatto (preoccuparsi della sua propria sicurezza) in quel momento era distratta.

Se giochi a dadi col destino, a volte perdi. Magari perché invece di uno bravo e attento trovi un buzzurro distratto. Cosa pensiamo, che non esistano? E allora, perché buttarsi in mezzo a una strada, davanti a un'auto che sta arrivando?

Fozzillo ha detto...
Questo commento è stato eliminato dall'autore.
Fozzillo ha detto...

@SirEdward

Come la vedo io:

Le condizioni di luce erano molto buone, è evidente, la strada è illuminata da diversi lampioni, due sono in prossimità di dove è avvenuto l'incidente. Ci sono due video fatti con cellulari in cui si vede benissimo e la testimonianza di chi li ha fatti che l'immagine nei video è simile alla visione diretta.
La vittima è stata incosciente, ha attraversato dove non doveva, ha certamente una parte della colpa. Non si è nemmeno sbrigata a togliersi dalla strada ma camminava tranquillamente, perché?

Perché la strada è larga e lei era arrivata quasi al margine, un automobilista avrebbe semplicemente allargato un po' per evitarla. Non lo vedi all'ultimo un ostacolo se la visibilità e buona. Anche su strada non illuminata non hai la visuale così corta come sembrerebbe dal video uber.

Invece quella che l'ha investita non era una auto normale in condizioni normali ma un'auto che guidava autonomamente, che lo poteva fare a condizione che ci fosse un safety driver.

E' questa la parte interessante della vicenda, che è strettamente legata alla guida autonoma e soprattutto a quella assistita.
Un automobilista non si distrae così tanto, nemmeno quelli che chattano mentre guidano, altrimenti morirebbero come mosche.

A permettere tanta distrazione è stato proprio l'autopilot.

Certo un caso o pochi casi non fanno statistica, ma contando i chilometri percorsi da uber nella sua sperimentazione è decine di volte più mortale del pilota biologico medio.

A me interessa immaginare cosa si può fare per continuare la sperimentazione in sicurezza, perché i problemi sono tanti, il safety driver tende a distrarsi, anche se è attento può perdere tempo ad aspettare che l'auto corregga, no ha i tempi di reazione di un automobilista normale.
E questi problemi ci sono anche per la guida assistita, quanti video ci sono di persone con la tesla che leggono il giornale, che si siedono dietro, che giocano con le arance ridendo e scherzando?

E poi il mio pensiero iniziale, se la visibilità era buona "i piloti" non erano attenti,
se la visibilità non era buona, come nel video uber, non si poteva procedere a quella velocità, e con pure l'aggravante dei tempi di reazione rallentati.
Se l'auto per sperimentare deve correre al buio, che ci sta a fare il safety driver?

Si vedeva bene o meno, uber di colpa ce ne ha un bel po' lo stesso. Non potrebbero sperimentare solo di giorno? Montare fari migliori?
No, magari perché percorrono solo strade ben illuminate, chi sa...


"Se l'autista fosse stata attenta e avesse notato la ciclista erratica, e l'avesse evitata con una serie di manovre, avresti dovuto congratularti con l'autista per l'attenzione e la bravura, perché avrebbe fatto più di quello che è richiesto dalla legge. Se quel "di più" non l'ha fatto, non puoi crocifiggerla."

Qui ti sbagli di grosso, la legge obbliga alla prudenza, a fare tutto il necessario per evitare incidenti. Non basta avere ragione.
Deve essere necessario più di un singolo errore a causare un incidente catastrofico.
Se uno sbaglia (potrebbe essere tuo figlio!) le regole sono fatte in modo che gli altri possano salvarlo.
E' per questo che è sbagliato ma contemporaneamente molto facile compiere imprudenze come distrarsi o superare i limiti di velocità, finché lo fa uno solo non succede niente, è solo il primo errore, se poi si aggiunge un altro errore succede l'incidente.
Quindi chi si distrae o corre al buio presuppone che tutti gli altri siano perfetti, non umani, e se commettono un errore hanno molte più probabilità di morire perché non ha lasciato un (obbligatorio) margine di sicurezza.
In questo caso di una macchina sperimentale in prova il margine dovrebbe essere doppio.

SirEdward ha detto...

@Fozzillo

Qui ti sbagli di grosso, la legge obbliga alla prudenza, a fare tutto il necessario per evitare incidenti. Non basta avere ragione.

In due hanno sbagliato profondamente. Do la responsabilità alla ciclista per via di quello che ho detto prima, ma la conducente Uber stava davvero da un'altra parte.

Sulla parte relativa alla guida assistita, invece, penso che il tuo discorso sia molto centrato.

CimPy ha detto...

"la responsabilità sull'oggetto fisico e non sull'essere umano che l'ha costruito/progettato/manutenuto"

Allora specifico: nella situazione in questione l'umano dentro al veicolo è innocente, la persona investita è (abbastanza) innocente, chi ha messo in pista quello specificio pilota (ovvero chi ha spento parte dei sistemi ovvero chi li ha revisionati ovvero chi ha evitato di farli) ha da rispondere di omicidio - magari anche colposo, ma sempre omicidio.

Puce72 ha detto...

@Fozzillo

il problema, IMHO, è proprio alla base... semmai un giorno avremo auto a guida autonoma in grado di circolare liberamente su ogni strada (cosa in cui, onestamente, credo poco) mi aspetto di poter "sfruttare" questo sistema per poter salire sull'auto e farmi i fatti miei, come se fossi un passeggero qualunque che si può far distrarre da ogni cosa. Se devo essere parte attiva e vigilante, allora tanto vale che sia io a guidare, magari con tutta una serie di ausili (per mantenere la carreggiata, per mantener ela distanza, per parcheggiare automarticamente, ecc...) ma con una guida che sia completamente attiva e vigile.

Aggiungo: il concetto di "visibilità", su un sistema a guida autonoma, non dovrebbe essere limitato a quello che vediamo noi "umani": mi aspetto che un sistema a guida autonoma abbia anche visori notturi, sensori ad infrarossi, e magari altro ancora... se il sistema non è stato in grado di rilevare l'attraversamento o di capire che si trovava in una situazione in cui sarebbe dovuto andare più lentamente per riuscire a frenare di fronte ad eventuali imprevisti, forse siamo di fronte ad algoritmi ancora molto immaturi...

Unknown ha detto...

I filmati con smartphone pongono dei dubbi sull'illuminazione e sulla qualità dei sensori della macchina, cosa che ci eravamo chiesti anche prima.

Notare che quei filmati sono realizzati da gente alla guida, non dal passeggero. In Italia sarebbero sanzionabili.

Speriamo di sapere qualcosa di più.

DiegoPig ha detto...

Bad news for Uber: "Uber Disabled Volvo SUV's Safety System Before Fatality"


https://www.bloomberg.com/news/articles/2018-03-26/uber-disabled-volvo-suv-s-standard-safety-system-before-fatality

ebonsi ha detto...

Re: Bad news for Uber: "Uber Disabled Volvo SUV's Safety System Before Fatality"

Bé, no. Sebbene io pensi tutto il male possibile della Uber in merito alle circostanze dell'incidente, da questo specifico punto di vista non credo si possa rimproverare loro alcunché. La vettura era infatti in circolazione esclusivamente per valutare il funzionamento del sistema di guida autonoma della Uber stessa, e quindi i sistemi di sicurezza originali della vettura dovevano per forza essere disattivati: altrimenti, sarebbe stato ben difficile accertare se una certa situazione d'emergenza fosse stata evitata per merito del sistema Uber, o di quelli originali. Questo anche senza parlare dei rischi, cui si è già accennato, creati dalla presenza contemporanea di due "conducenti", ognuno dei quali ha il pieno controllo dell'auto.

DiegoPig ha detto...

Non è tanto una questione di rimproveri, ma di responsabilità: fosse stato attivo il sistema della Volvo si poteva discutere sulle responsabilità del palese fallimento tecnico.

Ma così sono volatili per diabetici.

Fozzillo ha detto...

Secondo me il fallimento è del protocollo, della modalità di sperimentazione.

Ovviamente la Volvo ci tiene a sottolineare che il loro sistema non c'entra niente con l'incidente.

Il sistema Volvo è una sicurezza in più, sta al guidatore non investire i pedoni, in caso di emergenza potrebbe salvare la situazione, ma non è obbligato a farlo. non è che sul manuale della macchina c'è scritto di accelerare tranquillamente verso i pedoni e usare il pratico radar integrato.

Uber potrebbe aver fatto bene a disattivarlo, deve sperimentare il proprio sistema che dovrebbe essere di livello superiore.

Anche tutti gli altri che si sono sbrigati a dire che il proprio sistema di guida autonoma avrebbe funzionato, mi pare ridicolo. Anche il sistema uber sicuramente funziona bene in una situazione "tipo" questa, solo che questa specifica volta non ha funzionato.

Anche che abbiano disabilitato molti sensori e magari pure il lidar, ok mi sta bene, stanno sperimentando che problema c'è.

Il fallimento è delle misure di sicurezza, dell'addestramento del personale, del protocollo, disabilita tutto quello che ti pare ma fallo in sicurezza.

ebonsi ha detto...

"Non è tanto una questione di rimproveri, ma di responsabilità: fosse stato attivo il sistema della Volvo si poteva discutere sulle responsabilità del palese fallimento tecnico.

Ma così sono volatili per diabetici."

Senza dubbio - non avevo ben compreso il punto. Anche perché se non vado errato, la ditta produttrice del lidar si è già tirata fuori, sostenendo che il suo sistema ha funzionato benissimo - nel senso che come "occhio" ha visto la ciclista e ha trasmesso l'unformazione al "cervello", cioè al sistema Uber, che però non ha reagito.

A questo proposito, data la natura sperimentale del programma immagino bene che a bordo della Volvo ci fosse una registrazione continua di tutti i parametri, compresa l'immagine della strada fornita dai sensori. Qualcuno ne sa nulla? E se questa documentazione esiste, cosa ne è stato? E' stata sequestrata, o è stata lasciata in mano alla Uber?

Unknown ha detto...

A quanto pare Uber ha trovato un accordo extragiudiziale ed eviterà il processo.

Quindi c'è veramente qualcosa che non ha funzionato e chissà se lo sapremo mai.

DiegoPig ha detto...

"Anche che abbiano disabilitato molti sensori e magari pure il lidar, ok mi sta bene, stanno sperimentando che problema c'è."

A parte il morto, la conseguente percezione che questi sistemi non siano affidabili, l'evidente lacuna legislativa, le responsabilità penali e civili, nemmeno io vedo il problema.




"E se questa documentazione esiste, cosa ne è stato? E' stata sequestrata, o è stata lasciata in mano alla Uber?"

Credo l'abbia in mano l'NTSB.


Fozzillo ha detto...

"A parte il morto, la conseguente percezione che questi sistemi non siano affidabili, l'evidente lacuna legislativa, le responsabilità penali e civili, nemmeno io vedo il problema."

Su dai, dettagliucci...

Intendevo che le misure di sicurezza non dovevano permettete qiesto risultato, indipendentemente dal funzionamento dei sistemi.

Unknown ha detto...

Qua il commento di uno che ne capisce:" Thank you for writing this article. It was immediately obvious to me that the Uber dashcam video was misleading. Why? Because I've driven at night. It's really that simple. I know what it's like to drive in pitch black with low beams on. You can still safely drive 40 mph with the amount of illumination you get. I also knew that the Volvo XC90 would have decent headlights (although apparently not great) because it's a modern luxury car. Reading accounts of people saying "I would have hit that pedestrian too" had me bashing my head against the wall. Do these people really think nighttime driving is as barenuckle as the Uber dashcam video depicted? If so, then they shouldn't be driving at night."
E ci sono anche immagini e video della strada piuttosto luminosa di sera, la camera di Uber era settata probabilmente male, cosa che avevo già detto taaanti commenti fa, ecco https://arstechnica.com/cars/2018/03/police-chief-said-uber-victim-came-from-the-shadows-dont-believe-it/

In soldoni: Donna visibile e impatto evitabile, forse anche da siredward....ma non sono sicuro, lui non sterza!

SirEdward ha detto...

@Unknown

In soldoni: Donna visibile e impatto evitabile, forse anche da siredward....ma non sono sicuro, lui non sterza!

Se ti dessi la briga di leggere quello che scrivo, non saresti così presuntuoso e non ti staresti schiantando contro il muro del ridicolo, ma lo avresti evitato.

Peccato che tu fossi troppo distratto dal tuo orgoglio bruciante.

CimPy ha detto...

"Uber potrebbe aver fatto bene a disattivarlo, deve sperimentare il proprio sistema"


E' morta una persona. Ha fatto bene, Uber?

DiegoPig ha detto...

"Intendevo che le misure di sicurezza non dovevano permettete questo risultato, indipendentemente dal funzionamento dei sistemi."


Credo che "non dovevano permettere" sia il problema: non è fisicamente possibile creare un sistema infallibile, quindi occorre accettare che incidenti come questi accadranno nuovamente.
Lo scopo delle self-driving cars è ridurre il numero di incidenti, non eliminarli completamente: attendersi il secondo risultato è irrealistico e insensato, sia dal punto tecnico che legislativo.

Da ciò ne consegue la necessità di una revisione fondamentale del concetto della responsabilità, sia morale che civile che penale, di questi eventi.

Nel caso specifico, probabilmente la dirigenza Uber sarà ritenuta responsabile della decisione tecnica di utilizzare solamente il proprio sistema di guida quando ancora in fase sperimentale (a prescidere dalla "sensatezza" della decisione, su cui credo si possa discutere).

Probabilmente anche la decisione di sviluppare in proprio un sistema di questo tipo (quando già altri aziende ci lavorano da più tempo) sarà oggetto di valutazione di responsabilità.



In conclusione, il proverbiale ventilatore ha incontrato la propria nemesi all'interno del Louvre: ora la priorità è decidere come procedere alla pulizia delle opere, cioè adattare tra loro le realtà tecnica, legislativa e politica, mentre lo specifico problema tecnico potrebbe essere abbastanza irrilevante.

Fozzillo ha detto...

Unknown

Tutto sbagliato, e di tanto.

Infatti quello che conta è che sono stato io il primo a scriverlo, commento 136!
😀

Fozzillo ha detto...

Ma questa di uber non è un'auto autonoma a tutti gli effetti, i sistemi sono ancora in fase di sviluppo.
Bisogna tenere presente che possa sbagliare, non mi sento di incolpare la macchina.
Il safety driver dovrebbe essere sempre pronto, con le mani sul volante "alle 10 e 10" e lo sguardo sulla strada.

DiegoPig ha detto...

"Il safety driver dovrebbe essere sempre pronto"

Dalle mie parti si dice "se mia nonna avesse le ruote sarebbe una cariola".
Aspettarsi che la sicurezza ultima di una self-driving car sia un umano non è molto sensato: l'idea delle SDCars è proprio quello di levare l'umano dalla catena di azione.


Fozzillo ha detto...

Non è una self driving car!

E uno strumento di sviluppo. Gli sviluppatori devono essere liberi di fare prove, la sicurezza deve essere garantita da altro.

Se io responsabile della motorizzazione ti impongo un guidatore di sicurezza, suppongo che il pericolo sia pari a quello di un'auto tradizionale, con un autista che non passa 5 secondi (85 metri) senza guardare la strada.

CimPy ha detto...

"Gli sviluppatori devono essere liberi di fare prove, la sicurezza deve essere garantita da altro"


Dalle mie parti, gli sviluppatori le prove non le fanno in produzione, ma in un ambiente di test dove nessuno può farsi male.


Fosse davvero come dici (prove di un sistema in via di sviluppo su strada pubblica) ciò sarebbe una ulteriore aggravante.

Fozzillo ha detto...

"in produzione"
Ma quale produzione, ti risulta che ci siano già i taxi di Uber in giro senza autista?

Perché ti sfugge che le auto autonome ancora non esistono?

Come mai ci stava un umano? Perché l'auto poteva fallire.
Che faceva l'umano? Era distratta, come se non ci fosse.
Ci vuole tanto a capire di chi sia la responsabilità?

Non è che lo dico io, ci sono diverse società che stanno sviluppando l'auto autonoma, anche su strade pubbliche, tutte con safety driver e nessuna ne può fare a meno.

Se il driver è attento e pronto il rischio è lo stesso che per un'auto tradizionale e quindi ottengono il permesso.

Bisogna appurare se era distratta per fatti suoi (telefonino), o se stava eseguendo qualche compito per Uber, nel qual caso sarebbe una violazione del permesso e quindi sarebbe colpevole Uber.

Unknown ha detto...

No fozzillo non era distratta, guardava gli schermi e probabilmente qualche sensore che era dentro l'abitacolo, faceva il suo lavoro!
Ci sarebbero altri video interessanti di frenata assistita che non dovrebbero centrarci nulla con la sensoristica Uber, che mostrano una notevole riduzione della velocità fino a zero in presenza di un ostacolo, sono equipaggiamento della Volvo, nemmeno quelli hanno funzionato, magari esclusi?
Ma se tutto era escluso che cappero stavano testando.
Stamane ero a 64 su strada urbana, una ragazza a meno di 20 mt da me si sbilancia dalla sua traiettoria filo strada, ho lievemente sterzato lasciandole un metro di sicurezza. Facilissimo e alla portata di tutti, la manovra che avrebbe salvato quella disgraziata! Ps non ditelo a siredward che corre a confessarsi dal prete :-)

Fozzillo ha detto...

No.
La licenza prevede un safety driver che deve fare solo quello.
Se bisogna "smanettare" ci vuole una seconda persona.
La guida autonoma non è stata omologata da nessuna parte, neanche per un metro, c'è il driver che è responsabile, sempre.

Se scoprono che Uber faceva fare altro oltre che sorvegliare la strada al driver, sono guai seri per loro.

Lo dici tu stesso che hai evitato un incidente facendo la giusta attenzione, senza radar o autopilota.
È ciò che è mancato in questo caso.

Basta così, ho capito bene il tuo punto di vista e tu hai capito il mio. Stiamo ripetendo sempre le stesse cose.

SirEdward ha detto...

@Fozzillo

Ci vuole tanto a capire di chi sia la responsabilità?

Della ciclista (per fortuna della distrattissima autista Uber).

Gli esempi di Unknown non hanno alcun significato, né per le misure (20 metri chi lo ha calcolato? Ha già dimostrato di essere parecchio approssimativo con le misure), né per gli eventi: a 64 km/h (davvero?) ha lasciato un metro (uno? due? era in traiettoria della sua auto?) di spazio a una ragazza che si è "sbilanciata", non è caduta, non ha attraversato senza guardare. E' un po' ridicolo anche solo tentare il confronto. Sai, io ho evitato più volte degli imbecilli che sono passati col semaforo rosso, senza nemmeno guardare. Non saprei né la velocità, né la distanza, ma in caso di incidente, avrei avuto ragione (il semaforo rosso). Perché non è sempre colpa di quello che guida, a volte anche in casi come quello della conducente Uber distratta. Esistono delle regole apposta.

@Unknown

Ancora non hai capito cosa sto dicendo da un po', tenti dei confronti assurdi e mi insulti pure. Ti do davvero fastidio, vero? :-D

Resta nel tuo asilo infantile, e tanti saluti :-)

pgc ha detto...

Fozzillo: "La guida autonoma non è stata omologata da nessuna parte, neanche per un metro, c'è il driver che è responsabile, sempre."

Non è esatto. Ci sono già bus a guida autonoma in funzione e il Governatore dell'Arizona permise già nel 2016 alle driverless car di circolare senza nessun pilota a bordo. Ora ovviamente (e giustamente a mio parere) è accusato di essere indirettamente l'autore dell'incidente in quanto la legislazione era troppo permissiva.

Preciso che non sono di colpo diventato contrario alla circolazione di driverless car. Sono fortemente contrario a permetterne la circolazione ad auto senza pilota senza un "esame di guida" accurato e a lungo termine.

Fozzillo ha detto...

@pgc
Fai bene a correggermi, grazie, ammatto di non aver controllato questa mia affermazione.

Non è il caso dell'auto di Uber, ho letto che precedentemente viaggiavano con due persone a bordo, poi sono passati a uno.

Paolo Attivissimo ha detto...

Ünknown,

ho respinto il tuo commento. Datti una calmata ed esprimiti civilmente, se vuoi dialogare. Grazie.

Unknown ha detto...

Pare che la causa dell'incidente sia stata trovata.
https://www.theinformation.com/articles/uber-finds-deadly-accident-likely-caused-by-software-set-to-ignore-objects-on-road
La macchina ha correttamente rilevato il pedone come rileva continuamente oggetti animati e inanimati. Poichè non tutti gli oggetti possono costituire un pericolo, l'articolo fa l'esempio del sacchetto di plastica trasportato dal vento, c'è un algoritmo che decide se l'oggetto merita un frenata, un rallentamento oppure nessuna azione. Questo per evitare che l'auto si fermi continuamente.
In questo caso ha deciso per nessuna azione e non viene spiegato il perché, potrebbe essere che al momento del rilevamento la signora fosse immobile oppure qualcos'altro.

Kaguya ha detto...

In effetti pare sia stato un bug (o un'imprecisione) del software, come spiega Arstechnica (https://arstechnica.com/tech-policy/2018/05/report-software-bug-led-to-death-in-ubers-self-driving-crash/).
In sostanza sembra che il pedone sia stato riconosciuto come un falso positivo e quindi l'auto abbia deciso di non fermarsi.
Condizionali e dubitativi d'obbligo perché l'inchiesta è ancora in corso, anche se Uber non ha replicato nulla e ci sono almeno due fonti.

Se così fosse, l'articolo di Borgomeo - per quanto scritto con i piedi - non sarebbe andato lontanissimo dalla realtà. E' un errore che i geek dell'informatica conoscono molto bene: troppa sicurezza paralizza l'elaboratore, troppo poca lo espone a seri rischi.
Solo che qui, purtroppo, ci ha rimesso la vita qualcuno.

pgc ha detto...

La sensoristica ha funzionato. Il software no in quanto le frenate di emergenza erano state disabilitate...

arstechnica.com/cars/2018/05/emergency-brakes-were-disabled-by-ubers-self-driving-software-ntsb-says/

«Meno recenti ‹Vecchi   201 – 269 di 269   Nuovi› Più recenti»