Cerca nel blog

2021/11/12

Podcast del Disinformatico RSI 2021/11/12: Api e robotaxi, gli inganni della guida autonoma


Ultimo aggiornamento: 2021/11/14 9:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Rete Tre della Radiotelevisione Svizzera, condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto). Questa è la versione Story, dedicata all’approfondimento di un singolo argomento. 

Questa puntata è una riedizione aggiornata e ampliata di un mio articolo di giugno 2021, che contiene informazioni di sicurezza automobilistica che credo meritino di essere ripetute e soprattutto diffuse anche a chi ascolta i podcast, magari in auto, ma non legge i blog, ora che le auto a guida assistita, specialmente le Tesla, stanno avendo un picco di vendite.

I podcast del Disinformatico di Rete Tre sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo e i link alle fonti della storia di oggi, sono qui sotto!

---

Si parla tanto di intelligenza artificiale applicata alla guida autonoma, e YouTube è piena di pubblicità e dimostrazioni di come le auto più moderne siano, almeno in apparenza, in grado di viaggiare da sole. Nomi come Waymo, Cruise, Tesla annunciano l’imminenza dei robotaxi: alcune aziende già offrono il servizio a livello sperimentale. Ma questi video possono essere molto ingannevoli.

Dimostrazione del “robotaxi” di Waymo a guida interamente autonoma.
Dimostrazione del software FSD beta di Tesla (non ancora disponibile in Europa e rilasciato in USA solo a un numero limitato di utenti).

Questa è la storia di tre princìpi che possono creare un’illusione di competenza di questi robotaxi annunciati, che può portare a gravi incidenti in cui l’informatica incompresa ha un ruolo centrale, e di come le menti migliori del settore stanno cercando di risolvere questo problema.

---

Ci sono tre princìpi fondamentali per capire il motivo e il pericolo degli attuali sistemi di guida assistita, quella in cui il conducente resta comunque responsabile, e di guida autonoma, quella in cui il conducente non conduce ma è semplice passeggero passivo.

Il primo principio è questo: l’intelligenza artificiale usata per la guida autonoma o assistita, più precisamente la sua parte denominata machine learning, è semplicemente un riconoscimento di schemi e non costituisce “intelligenza” in alcun senso significativo della parola.

Secondo principio: il riconoscimento di schemi fallisce in maniera profondamente non umana e in situazioni che un umano invece sa riconoscere in maniera assolutamente banale. Questo rende difficilissimo prevedere e gestire i fallimenti del machine learning e quindi rende pericolosa la collaborazione umano-macchina.

Terzo principio: qualunque sistema di guida autonoma o assistita basato esclusivamente sul riconoscimento degli schemi è destinato a fallire in maniera imbarazzante e potenzialmente catastrofica.

    Prima di spiegare i dettagli di questi tre princìpi, riassumo cosa si intende per machine learning: in estrema sintesi, si danno in pasto a un software tantissimi esempi di una cosa, tantissimi esempi di cose differenti (ossia che non sono quella cosa) e lo si “premia” quando riconosce correttamente la cosa in questione.

    Questo apprendimento automatico può raggiungere livelli di affidabilità altissimi e in molti casi funziona egregiamente. Il riconoscimento ottico dei caratteri e il riconoscimento vocale sono esempi di grande successo del machine learning

    Ma si può dire che un sistema di riconoscimento di testi sia intelligente? Capisce che sta leggendo un sonetto di Shakespeare o una mail di spam, e può quindi adeguarsi di conseguenza? È in grado di considerare il contesto e di usarlo per risolvere ambiguità?

    No, perché non ha conoscenza del mondo reale; conosce soltanto delle forme (le lettere) e assegna loro una probabilità di corrispondere a uno dei modelli che conosce. Non sa nulla del loro significato e quindi non può correggersi di conseguenza. E non importa quanti miliardi di campioni di lettere o di parole gli si danno: non acquisirà mai la comprensione del testo.

    Ogni tanto questi sistemi di riconoscimento sbagliano, ma non è un problema. Se un sistema di riconoscimento di testi “legge” una parola al posto di un’altra non muore nessuno. Se Alexa crede che l’abbiate chiamata, quando invece stavate pronunciando il nome della vostra spasimata Alessia durante un momento di passione, il peggio che può succedere è che la registrazione del vostro amplesso finisca nel cloud di Amazon e venga scambiata fra i dipendenti dell’azienda che fanno il monitoraggio dei campioni audio. Imbarazzante, ma probabilmente non letale.

    La ragazza che si chiama Alessia è un cosiddetto edge case: un caso limite, una situazione rara che però fa sbagliare clamorosamente il sistema di riconoscimento.

    Questi sbagli avvengono in modi strani, perché l’addestratore umano, quello che insegna al software a riconoscere una forma o un suono, non riesce a calarsi nella “visione del mondo” che ha quel software e non riesce ad anticipare tutti i modi possibili nei quali potrebbe prendere un granchio, e non riesce quindi a insegnargli a riconoscere tutti questi casi limite.

    Lo ha spiegato benissimo uno che di queste cose ne capisce a pacchi, Andrej Karpathy. È direttore del reparto di intelligenza artificiale di Tesla, un’azienda che sta basando i propri sistemi di guida assistita (per ora) e autonoma (in futuro) sul riconoscimento visivo degli oggetti. In una sua lezione magistrale del 2018 ha mostrato due esempi fra i tanti. 

    [Mi correggo rispetto a quello che dico nel podcast: gli esempi del 2018 sono quelli qui sotto; l’esempio della bici è tratto invece da una sua conferenza del 2019, linkata più avanti]

    Quante auto sono? Una, quattro o due?
    Come si possono annotare (identificare per il software) le linee di corsia quando fanno così?

    Un’auto caricata a coda in avanti su una bisarca: è un’auto in contromano?

    Credit: Roman Babakin / Shutterstock (fonte).

    Una bici montata di traverso sul retro di un’auto: è una bici che sta tagliando la strada al conducente, che quindi deve frenare?

    Dal Tesla Autonomy Day (2019) a 2:06:25.

    Un altro esempio molto concreto di questi edge case viene successivamente pubblicato con clamore e divertimento su Reddit: un camion ha dei cartelli di stop dipinti sul portellone posteriore, e il sistema di riconoscimento ottico dei cartelli di una Tesla li etichetta e li mostra come se fossero cartelli reali.

    Cosa succede se il sistema di decisione dell’auto ritiene che quei cartelli disegnati siano reali e quindi inchioda in mezzo alla strada, creando la situazione perfetta per un tamponamento a catena? 

    Ìl sistema è sufficientemente sofisticato da tenere conto del contesto e quindi “sapere” che i cartelli stradali normalmente non si muovono lungo le strade, e quindi è in grado di rigettare il riconoscimento e ignorarlo nelle sue decisioni di guida?

    Un conducente umano, avendo conoscenza del mondo, non avrebbe la minima esitazione: “sono chiaramente cartelli dipinti sul retro di un camion, li posso tranquillamente ignorare”. Un sistema di guida autonoma o assistita non è necessariamente altrettanto consapevole. E soprattutto il conducente potrebbe essere in difficoltà nell’anticipare questi possibili errori che lui non commetterebbe mai.

    Si potrebbe pensare che incontrare un veicolo con dei cartelli stradali disegnati sul retro sia un caso raro. Ma è stato pubblicato online un altro caso ancora più bizzarro: una Tesla Model 3 viaggia a 130 km/h e mostra un flusso costante di semafori che appaiono dal nulla sulla corsia del conducente.

    Un essere umano sa in un millisecondo che questo è impossibile, perché ha conoscenza del mondo e sa che i semafori non volano e non compaiono dal nulla; il sistema di guida assistita no, perché non “sa” realmente che cosa sono i semafori nel mondo reale e quindi non “sa” che non possono apparire dal nulla a 130 km/h.

    Che cosa ha causato questo clamoroso errore di riconoscimento? Un camion che trasportava semafori.

    E non è l’unico caso segnalato dagli utenti di queste auto: altri conducenti hanno citato addirittura camion che trasportavano semafori accesi, che sono stati riconosciuti come impossibili semafori volanti dalle loro auto.

    Per non parlare delle bandiere verticali della Coop, nelle quali la forma circolare delle lettere viene scambiata per quella delle luci di un semaforo.

    [Ho aggiunto i due esempi seguenti, che mostrano la Luna scambiata per un semaforo e un camion il cui retro è uno schermo che mostra la strada davanti al camion stesso, dopo la chiusura della registrazione del podcast]

    Questo è esattamente il tipo di errore che un conducente umano non commetterebbe mai e che invece un sistema di guida basato esclusivamente sul riconoscimento delle immagini farà, e farà in circostanze imprevedibili. Con conseguenze potenzialmente mortali. Se state valutando un’auto dotata di questi sistemi, pensateci bene. Se ne avete una, pensateci ancora di più.

    Certo, gli umani commettono altri tipi di errori, per cui alla fine l’obiettivo di questi sistemi non è creare una soluzione di guida assolutamente infallibile, ma semplicemente una che fallisca mediamente meno (ossia causi meno incidenti) della media dei conducenti umani.

    Ma tutto questo vuol dire che la guida autonoma basata sul riconoscimento puro degli schemi è impossibile? Non è detto.

    Una soluzione potrebbe essere semplificare l’ambiente operativo, creando strade su misura, rigidamente normate, accessibili soltanto a veicoli autonomi o assistiti. Per esempio, un ascensore (che in sostanza è un treno verticale in una galleria verticale chiusa) è un sistema di “guida autonoma” affidabilissimo, che richiede pochissima “intelligenza” grazie a un ambiente operativo ipersemplificato.

    Allo stesso tempo, va notato che ci sono esempi di sistemi che interagiscono egregiamente con un ambiente operativo complesso pur avendo una “intelligenza” molto limitata: le api. Con un solo milione di neuroni riescono a navigare, interagire con i fiori, comunicare con le altre api, gestire gli aggressori e avere una società complessa e organizzata. hanno persino delle “votazioni”).

    Noi abbiamo cento miliardi di neuroni, cioè centomila cervelli d’ape, a testa e a volte non riusciamo a capire come indossare una mascherina o perché. Chiaramente c’è un margine di ottimizzazione che le api sfruttano e noi no, ma è anche vero che un’ape va in crisi quando incontra l’edge case di una cosa che non esiste in natura, tipo una barriera trasparente: il vetro di una finestra.

    È anche possibile che estendendo il concetto di riconoscimento degli schemi all’asse del tempo (ossia imparando a riconoscere come cambia un oggetto nel corso del tempo) ed estendendo il concetto di schema a oggetti complessi come incroci, rotatorie e attraversamenti pedonali, si riesca a ottenere risultati accettabili.

    [Aggiungo un esempio di tentativo di ricostruzione dell’ambiente 3D tramite riconoscimento di immagini lungo l’asse del tempo, proposto da Karpathy di Tesla nel 2019. Il video dovrebbe partire già posizionato nel momento esatto, altrimenti andate a 2:16:40]

    Ma tutto questo richiede un database di esempi colossale, una classificazione vastissima e una potenza di calcolo ancora più colossale. Nessuno dei sistemi attualmente in commercio ci si avvicina. Siate prudenti e non fidatevi dei video su YouTube.

    108 commenti:

    Van Fanel ha detto...

    è un mito perché in realtà usiamo il 2% (come scrisse il noto scienziato Stephen King), e complottisti, terrapiattisti, no-vaxmaskpass e altra fauna analoga ne sono la prova...

    Giulio Manfreda ha detto...

    Non sono un esperto di "emegency maneuvers", ma il fatto che sia possibile implementarla tecnicamente è un prerequisito base in ogni caso, altrimenti è inutile discutere del problema in generale.
    Come detto prima, ciò non dipende solo dai "limiti" dell'AI, perché anche in caso di un guasto di un qualunque componente elettronico o meccanico devi essere in grado di garantire uno stato "sicuro" (a meno che la probabilità di guasto non sia del tutto trascurabile, cosa non banale da garantire).

    SixaM MaxiS ha detto...

    Come fa un bambino ad imparare cos'è un semaforo? Presumo tramite interpretazione di informazioni ottenute da tutto l'ambiente con cui interagisce (di cui fanno parte genitori, amici, ecc.), non credo abbia innato il concetto di "semaforo". Considero il machine learning la strada più promettente per "insegnare" ad un sistema artificiale, solo che è ancora molto acerbo, e secondo me non si avvicina neanche lontanamente ai processi di apprendimento umani

    Marco Perici ha detto...

    "Certo, gli umani commettono altri tipi di errori, per cui alla fine l’obiettivo di questi sistemi non è creare una soluzione di guida assolutamente infallibile, ma semplicemente una che fallisca mediamente meno (ossia causi meno incidenti) della media dei conducenti umani."
    Mentre leggevo queste due righe mi è venuto in mente il paragone perfetto, cioè quello dei vaccini: si cerca la soluzione che abbia il miglior rapporto rischio/beneficio ma bisogna essere consapevoli che il rischio zero è impossibile e farsene una ragione, cosa che purtroppo non tutti sanno farsi.

    Paolo Attivissimo ha detto...

    Certamente "semaforo" non è un concetto innato. Ma l'apprendimento fatto da un bambino è molto più ricco, completo e contestuale di quello fatto attualmente dal ML basato esclusivamente sul riconoscimento di immagini.

    Aggiungiamoci il fatto che le risorse intellettive di un bambino gli consentono di distinguere la Luna da un semaforo e di capire che un semaforo sta solo in certi posti e non può comparire in cielo né volargli accanto o inseguirlo.

    I nuovi sviluppi del ML presentati da Karpathy (serie temporali di immagini per ricostruire l'ambiente 3D) sono comunque promettenti.

    MB ha detto...

    Per quello ci sono (sarebbero) i mezzi pubblici... E quanto mi piacerebbe poterli usare, ma la capillarità in periferia è davvero deprimente.

    Angelo ha detto...

    Un’auto caricata a coda in avanti su una bisarca: è un’auto in contromano?


    Gli umani non commettono errori simili?


    https://www.youtube.com/watch?v=PTaIfPfQOlM


    Se non ricordo male avevi commentato anche tu tale filmato. E mi pare di ricordare che.... https://www.flickr.com/photos/20961887@N06/3100776164/in/set-72157608208267274/

    Totomul ha detto...

    Premesso che sono scettico anche io sulla guida autonoma (ma al contempo non la escludo in un futuro), a me risulta che la guida autonoma stia investendo più sul deep learning che sul machine learning, sbaglio?

    holden72 ha detto...

    Secondo me, il semaforo (dal punto di vista del bambino) è un'astrazione.


    O meglio, alla base della "percezione" consapevole del semaforo da parte del bambino, c'è un'astrazione.


    In questo caso di un comando (il rosso = no), di un avvertimento (giallo = pericolo) e di un'autorizzazione (verde = libero, puoi passare, ma con attenzione).


    Prima di "imparare" ad "usare" il semaforo, il bambino "impara" l'esistenza ed il rilievo delle astrazioni, e di queste astrazioni in particolare.


    Il computer di Tesla, da quanto ho capito (ma posso sbagliare), "impara" solo a riconoscere delle figure (o schemi), alle quali associa dei comportamenti che gli sono stati impartiti.


    Questa io la vedo come una differenza sostanziale tra i due processi di "apprendimento"; una differenza non solo quantitativa.


    Ma sono un ignorante in materia, e dunque potrei aver capito male.

    qu ha detto...

    free courses ,
    https://www.quicktrick.net/

    Paolo Attivissimo ha detto...

    Certo, li commettono. Ma li commettono i conducenti idioti, e credo che l'obiettivo della guida autonoma sia guidare meglio degli idioti :-)

    Tommy the Biker ha detto...

    quando si "premia" il sistema che da la risposta corretta durante l'addestramento, in concreto che cosa si fa? C'è un sottoprogramma che deve raggiungere un tot punteggio e la risposta esatta è un punto?Detto in modo molto sbrigativo...

    Diciamo che hai cento coppie caso (X) e risultato (y)
    es: foto di oggetto, associata alla frase "è un semaforo"/"non è un semaforo"

    Queste cento coppie le dividi in due tronconi, uno di 80 coppie (train) e l'altro da 20 (test).

    Dai in pasto all'algoritmo gli 80 casi (x_train) associati ai relativi risultati (y_train); l'algoritmo si studia le coppie cercando un pattern del tipo "questi fattori qui mi portano a quel risultato là".

    Poi gli mostri le 20 foto rimanenti (x_test) e gli chiedi: per ognuna di queste 20 foto dimmi se è un semaforo o no (trovami l'y_test).

    Tu conosci già qual è la risposta, quindi a seconda dei risultati puoi capire quanto l'algoritmo "ci prende" e fare i dovuti ritocchi.

    Detta così sembra abbastanza facile, come inizi a scavare scopri i casini. Primo fra tutti l'overfitting, cioè quando a forza di ritocchi l'algoritmo si "impara a memoria" le coppie quindi nelle simulazioni va una bomba, poi quando gli dai in pasto dati reali è un disastro.

    Mauro CI ha detto...

    Non proprio api: ho osservato vespe che, dopo aver urtato il vetro della finestra, ci camminano sopra finché non trovano un'uscita. L'ho trovato sorprendente.

    Le mosche, invece, continuano a ripetere sempre la stessa traiettoria, sbattendo e sbattendo e sbattendo...

    Manzini Moreno ha detto...

    Ciao


    Non ne sarei così certo.
    Un giorno in cui ero emotivamente provato, mi convinsi che una strada che faccio anche di frequente fosse improvvisamente diventata a due corsie per senso di marcia.
    Fortunatamente il tilt è durato per una decina di secondi ma in quei secondi avrei potuto tranquillamente ammazzarmi e/o ammazzare qualcuno.


    Non è solo questione d'idiozia ma di fragilità, ci sentiamo tanto fighi ed indistruttibili ma la realtà è ben diversa e più passano gli anni, più le fragilità aumentano.


    Ciao Ciao, Moreno

    MB ha detto...

    Mi spiace se contravvengo alla regola dei link esterni (foto, video, ecc), ma Paolo, se per caso non lo conosci e hai due minuti da buttare merita :-)


    Ti facilito il lavoro titolando:


    Sai la storia che usiamo solo il 20% del cervello? - Italiano Medio - Il film
    Clip tratta da "Italiano Medio - Il film" di Maccio Capatonda


    https://youtu.be/qfMwu5mtfSg


    P.S: ma che problemi ha disqus con il copia incolla??? Solo a me aggiunge tonnellate di righe vuote?

    Paolo Attivissimo ha detto...

    Un giorno in cui ero emotivamente provato

    Questo è un altro vantaggio: un'AI non è mai emotivamente provata.

    La stessa cosa è capitata a me molti anni fa.

    Manzini Moreno ha detto...

    Ciao


    Mi consolo che non sono solo 8<)))


    Come sempre ogni sistema ha i suoi pregi ed i suoi difetti, alla fine è sempre una questione di bilanci.


    Ciao Ciao, Moreno

    Christian Franzone ha detto...

    Ovvero, come diceva la "garbata e tollerante" Margaret Thatcher: non mi interessa cosa dicono i miei ministri, finché fanno quello che dico io.

    LaoDan ha detto...

    Tutti abbiamo delle fragilità che in condinzioni ambientali sfavorevoli possono renderci vulnerabili.
    Una delle fragilità più insidiose è proprio quel sentirsi "fighi e indistruttibili" che hai messo in evidenza.
    Ho la netta impressione che questa fragilità sia presente nei sistemi di guida assistita/autonoma e non so se e come sarebbe possibile eliminarla (come rendere il sistema cosciente della propria fallibilità?)

    LaoDan ha detto...

    Stimolante la locuzione "comportamenti indistinguibili dal pensiero"! Non credo di aver mai considerato il 'pensiero' come 'comportamento'.
    In ogni caso, per ottenere macchine biologiche pensanti ci sono voluti miliardi di anni dal Big Bang e il contributo non trascurabile degli ingegneri di Magrathea (che presumo fossero a loro volta macchine biologiche pensanti). :-)

    Giacomo Schieppati ha detto...

    ha ragione :-) mai dire mai :-) ma sicuramente non sono cose che vedro' io :-)

    Giacomo Schieppati ha detto...

    vero

    Giacomo Schieppati ha detto...

    "deprimente" e' un gentile eufemismo :-) Per fortuna abito a Milano, ma son stato in esilio per anni in brianza, e so cosa vuol dire usare i mezzi pubblici fuori citta'

    Giacomo Schieppati ha detto...

    penso che, anche nel caso di noi "umani", fermarsi quando siamo stanchi sia la soluzione migliore. Un automa teoricamente stanco non e' mai..... magari ha i chip surriscaldati :-)

    Giacomo Schieppati ha detto...

    ma potrebbe essersi staccato il dissipatore dal chip della CPU.....

    Giacomo Schieppati ha detto...

    Moreno, mi confermi che invecchiando si migliora :-) Non mi sarei mai aspettato un'ammissione simile da te, considerato che hai sfasciato molte piu' auto di me :-) (e' una battuta)

    Paolo Attivissimo ha detto...

    Per questo l'AI è realizzata in duplice copia fisica.

    Manzini Moreno ha detto...

    Ciao


    Come detto più volte, per me la IA non è la strada giusta, io sono per la iperconnessione a corto raggio.
    Gli storni e le sardine non sono certamente laureati ad Harvard ma con un comportamento collaborativo e con semplici algoritmi di coordinazione, fanno numeri per noi umani impossibili.


    I veicoli sono già ora connessi (dal 2018 è obbligatorio lo eCall) e con il tempo lo saranno sempre di più, superata la massa critica il 90% dei problemi spariranno come per magia.


    Ciao Ciao, Moreno

    donremi76 ha detto...

    No, anche a me capita. Ma da tempo.

    Guastulfo ha detto...

    Anni fa sono andato dritto ad segnale di precedenza senza fermarmi né rallentare perché l'ho scambiato per un segnale di preavviso (quei segnali di precedenza con un cartello con scritto "stop a 100m", per capirci).


    Io sto sempre attento quando guido, anche perché mi diverte guidare, eppure ho commesso un errore che, come te, avrei potuto pagare caro.


    Un sistema di guida autonoma, specie se su strade dedicate munite di strumenti di ausilio alla guida da parte della IA azzererebbero queste situaziioni.


    Mi sembra che a Francoforte ci sia un parcheggio munito di un sistema che permette alle auto "compatibili" di gestire la guida in modo totalmente autonomo. Una volta arrivati all'ingresso si scende dall'auto e lei va a parcheggiarsi da sola. Per adesso sono compatibili le Mercedes SL ma, in futuro lo saranno anche altre.


    Se si riuscisse ad implementare un sistema simile, su percorsi dedicati alle auto a guida autonoma, che si integrasse col sistema di guida dell'auto potremmo avere già adesso auto senza conducente

    Giacomo Schieppati ha detto...

    gia'.... ma fisicamente dove? Non so nulla di auto elettriche e non voglio dire cavolate, ma suppongo che anche negli EV ci siano zone parecchio calde. Per non parlare dei cambi di stagione. So per esperienza che qualsiasi circuito elettronico (anche quelli stupidi, figuriamoci quelli sedicenti "intelligenti") va fuori di testa all'aumento della temperatura. Certo ha ragione lei: ci si arrivera' all'AI prima o poi. Ma gli ostacoli non sono solo software. Posso dire una cosa? Lei e' troppo ottimista....

    Giacomo Schieppati ha detto...

    allora e' un obiettivo facilissimo :-D (scusi, era una battuta)

    Paolo Attivissimo ha detto...

    Il limite della tua proposta è appunto nella parola "collaborativo". Presuppone un livello di ubbidienza (compliance) che, la pandemia ci insegna, non è disponibile nella società.
    Basta un'auto che "non collabora" per mandare in crisi la collaborazione (almeno localmente). Non collaborare significa per esempio:
    1. Non essere dotata di iperconnessione (quindi finché non ce l'hanno tutte/quasi tutte le auto, siamo fregati)
    2. Diffondere dati falsi ("ci tengo alla mia privacy", "tarocco la mia per avere precedenza", eccetera)

    Paolo Attivissimo ha detto...

    Nelle Tesla, l'hardware ha due processori identici sulla medesima motherboard. Uno controlla l'altro. La MB è in un vano appositamente ventilato. Difficile che vada di colpo in sovratemperatura: avvisa prima e accosta/chiede al conducente di prendere il controllo.

    MB ha detto...

    Sì sì, non è una novità...

    Pasquale Panuzzo ha detto...

    Visto che ci lavoro, provo a spiegarlo, in modo tecnico, ma il piu' semplificato possibile.


    Questi programmi sono delle cosiddette reti neuronali artificiali. Ogni neurone di queste reti, e' in realta' una semplice funzione matematica, che trasforma degli input (una serie di valori numerici) in un output (un singolo valore numerico. Questa funzione matematica ha dei "coefficienti", e lo scopo dell'addestramento e' trovare il valore migliore di questi coefficienti.


    Questi neuroni sono organizzati in strati. Il primo strato riceve in input l'immagine da analizzare (che e' una serie di valori numerici) e ogni neurone produce un output che viene passato in input ai neuroni dello strato successivo, il quale produrra' un output che viene passato in input ai neuroni dello strato successivo, e cosi' via.
    Gli output del l'ultimo strato sono il risultato finale della rete neuronale, e indicano a quale "classe" (bicicletta, semaforo, etc...) l'immagine di input appartiene.


    Si passa poi a definire una funzione di costo, che quantifica quanto sbagliato sia il risultato. Puo' essere anche semplicemente il contare quante volte la rete neurale indica una classe errata. Lo scopo dell'addestramento diventa quindi semplicemente trovare il minimo di questa funzione di costo, variando i coefficienti dei neuroni. Questa ricerca del minimo viene fatta attraverso delle tecniche in cui vengono variati, in modo iterativo, i coefficienti.

    Pasquale Panuzzo ha detto...

    Il deep learning e' una tecnica che fa parte del machine learning.

    Giacomo Schieppati ha detto...

    ahia!

    Giacomo Schieppati ha detto...

    gentile Paolo si contraddice: o collaboriamo (e ci salviamo) o non collaboriamo (e finalmente moriamo tutti). Qui, purtroppo, nessuno collabora con nessuno. E' sbagliato? Si certo. E' inevitabile? Purtroppo si, certo

    Giulio Manfreda ha detto...

    Ti basta un elettrolitico andato nella power supply o un MOSFET che non lavora bene per andare fuori giri di temperatura sull'intera motherboard. Questi oggettini consumano decine se non centinaia di watt in nominale, se la power supply lavora male diventano un forno nel giro di secondi.

    Non mi fiderei mai di una ridondanza così delicata all'interno di un'unica PCB (per di più, ridondanza omogenea).

    Giacomo Schieppati ha detto...

    appunto.... direi che si e' risposto da solo

    Manzini Moreno ha detto...

    Ciao


    Mica m'aspetto che siano gli uomini a collaborare, sarebbe una guerra persa in partenza 8<)), è molto più semplice convincere degli oggetti stupidi a collaborare.
    1) Per questo ho parlato di massa critica, comunque anche il fatto che esista un veicolo che non collabora è già un'informazione utile che può essere trasmessa ai veicoli che seguono tipo "Attenzione veicolo X non comunica/collabora, passare in modalità manuale".
    Comunque se la cosa è normata per legge non è che uno può decidere di violare la legge, se lo fa gli sequestrano l'auto ed è finita li.


    2) Tutto quello fatto dall'uomo può essere distrutto dall'uomo, comunque anche il fatto di fornire dati falsi è relativamente semplice da sgamare.
    Il veicolo non può nascondersi, un'auto della polizia potrebbe interrogarlo più a fondo e beccarlo in castagna.


    Ciao Ciao, Moreno

    Manzini Moreno ha detto...

    Ciao


    Speriamo che si sbrighino, temo che fra 15/20 anni potrei diventare una mina vagante 8<)))


    Ciao Ciao, Moreno

    Manzini Moreno ha detto...

    Ciao


    No No, non è una battuta è proprio vero 8<)))
    Sì ammetto che in gioventù ero piuttosto idiota e di auto ne ho sfasciate parecchie, comunque solo in un paio di casi è stata veramente tutta colpa mia, le altre è stata sfiga anche se c'è da dire che la sfiga me l'andavo a cercare.


    Il più comico è stato quando mi hanno preso fuoco i pantaloncini, per salvare gli zebedei ho mollato il volante ed a momenti faccio un volo di 20 metri nell'Adda.


    Ciao Ciao, Moreno

    Paolo Attivissimo ha detto...

    "Attenzione veicolo X non comunica/collabora, passare in modalità manuale".

    In una guida veramente autonoma, non esiste alcuna modalità manuale.

    Paolo Attivissimo ha detto...

    Questi acceleratori per AI consumano decine se non centinaia di watt in nominale

    Di certo quelli sulle Tesla non consumano centinaia di W, altrimenti addio batteria e autonomia :-)

    Paolo Attivissimo ha detto...

    Du is megl che uan :-)

    Il tuo ABS ha processori ridondanti e collocati separatamente?

    Paolo Attivissimo ha detto...

    Non credo di essere in contraddizione. Sto solo descrivendo la realtà: la collaborazione fra umani è insufficiente. Lo vediamo nelle liti e prevaricazioni di tutti i giorni. Lo vediamo nelle guerre (che sono il collasso finale della collaborazione). Finora il livello di collaborazione è stato appena sufficiente a evitare l'estinzione. Non sono particolarmente ottimista che continuerà a esserlo.

    Giulio Manfreda ha detto...

    Secondo questo:

    https://en.wikichip.org/wiki/tesla_(car_company)/fsd_chip

    Ogni chip consuma 36 W. Ce ne sono due, quindi siamo già a 72 W. Anche senza considerare nient'altro (la motherboardbha anche altri componenti) e ipotizzando un'efficienza del 90% o poco più della power supply arrivi a 80 W circa.

    Quindi si hai ragione, centinaia è esagerato, ma 100 non è molto lontano dalla realtà.

    Manzini Moreno ha detto...

    Ciao


    Beh, in una guida veramente autonoma non ci sono neanche veicoli che non collaborano.
    Come sempre, sono cose che si faranno per gradi e sicuramente si comincerà dalle autostrade.
    Per un po' potranno circolare tutti i tipi di veicoli, poi quelli obsoleti saranno trattati come i calessi che in autostrada proprio non ci possono entrare 8<))


    Ciao Ciao, Moreno

    Paolo Attivissimo ha detto...

    Beh, in una guida veramente autonoma non ci sono neanche veicoli che non collaborano.

    Si parla di usare la GA sulle strade comuni, sulle quali attualmente ci sono le auto tradizionali. O bandisci le tradizionali di colpo e totalmente (difficile), oppure devi prevedere un periodo di convivenza.

    Pasquale Panuzzo ha detto...

    Credo che faccia confusione. Le reti neurali sono algoritmi molto efficienti, non hanno bisogno di grandi potenze di calcolo. Una grande potenza di calcolo e' necessaria per fare l'"addestramento", ma una installata su una vettura ha gia' avuto la sua fase di addestramento. Esistono IA che possono essere istallate addirittura su microcontrollori, come i sistemi Arduino.

    Manzini Moreno ha detto...

    Ciao


    Appunto, si parla, come sempre, "fra il dire ed il fare c'è di mezzo il mare".
    La stragrande maggioranza dei veicoli è ancora a livello 0, io sono a livello 1 e seriamente si arriva al massimo al livello 2.


    Leggo che in U.K. hanno autorizzato le Self Driving car sulle loro autostrade https://www.quattroruote.it/news/tecnologia/2021/05/06/guida_autonoma_la_sae_ridefinisce_i_livelli_di_automazione_per_fare_chiarezza.html
    ma, a quanto pare, i paletti sono belli alti.


    Ciao Ciao, Moreno

    LaoDan ha detto...

    L'Adda avrebbe certamente estinto l'incendio che minacciava le manziniane pudenda, ma il volo di 20 metri avrebbe forse estinto il possessore delle medesime. :-)


    P.S.

    Come avevano preso fuoco i pantaloncini?

    Angelo ha detto...

    Anche i due emisferi del tuo cervello sono fisicamente nello stesso posto, e non mi sembra che la cosa ti preoccupi così tanto

    Angelo ha detto...

    L'obiettivo è quello, sui grandi numeri.

    Immagina che tu debba necessariamente percorrere un tragitto in autostrada, e che per farlo tu possa solo scegliere se viaggiare su un veicolo guidato da una IA, o su un altro guidato da un essere umano. Però sai con certezza che su quell'autostrada c'è un camion che trasporta cartelli stradali, e che potrebbe quindi creare i problemi da te descritti nell'articolo. Inoltre sai con certezza che l'autista umano ha appena bevuto un bicchiere di grappa. Quale veicolo sarebbe più pericoloso?


    E, di fatto, quale delle due situazioni è più probabile? Di trovare per la strada un camion carico di cartelli stradali, o semafori accesi, o quello che è, oppure di avere un guidatore ubriaco?

    Manzini Moreno ha detto...

    Ciao


    Per il più idiota dei modi, la brace della sigaretta caduta su pantaloncini estivi di materiale sintetico (decisamente una volta non ci pensavano tanto agli standard di sicurezza dei materiali tessili).
    Fortunatamente avevo appena fatto una curva a gomito per cui andavo piano ed ho avuto la fortuna ulteriore che ho preso la ringhiera del fiume di traverso per cui, rompendosi, ha rallentato l'auto fino a fermarla.


    Ciao Ciao, Moreno

    Paolo Attivissimo ha detto...

    Se senti un suono in lontananza, come di una coppia che ride fino alle lacrime, siamo io e la Dama dopo aver letto il tuo racconto :-) :-)

    Paolo Attivissimo ha detto...

    Bella domanda. Non lo so. Troppe incognite (qualità dell'IA, bravura e resistenza all'alcool del guidatore).

    Angelo ha detto...

    Attenzione: quella storia di utilizzare solo il 10% del cervello è una vecchia bufala, priva di fondamento: https://en.wikipedia.org/wiki/Ten_percent_of_the_brain_myth

    Manzini Moreno ha detto...

    Ciao


    Sono contento che queste brutte avventure di un lontano passato possano portare un po' di ilarità 8<)))


    Comunque c'è da dire che quell'incidente cambiò radicalmente il corso della mia vita, saltate le vacanze, mi dedicai intensamente (per dimenticare) allo studio di Windows 3.0.
    Da quello studio nacque un programma che, quasi immutato, mi ha portato reddito sino a giugno di quest'anno quando, finalmente (almeno spero), sono riuscito a pensionarlo.


    Ciao Ciao, Moreno

    Totomul ha detto...

    Grazie per la spiegazione ma il punto è che il deep learning non è da intendersi solamente come "sottoinsieme" del machine learing (ed a sto punto tanto vale usare un generale IA), ma il fatto che attraverso il deep learning in teoria una intelleginza artificiale può imparare senza un input umano, imparare più dai contesti appunto.

    Il deep learning ha dato nuova spinta al settore "guida autonoma", quindi mi sembra giusto citarlo.

    Totomul ha detto...

    Con le strade normate non risolvi il problema, anzi, basta che un "buontempone" metta un cartello faso per combinare disastri

    Paolo Attivissimo ha detto...

    Lo stesso vale per le ferrovie. Ma a quanto pare scarseggiano i buontemponi ferroviari.

    Angelo ha detto...

    Le mosche sono molto più stupide. Però hanno una prontezza di riflessi che un essere umano non potrà mai eguagliare: il loro cervello è ottimizzato per le reazioni veloci, non per il pensiero profondo. Minore è il numero di sinapsi, che un impulso nervoso deve attraversare, maggiore è la velocità di risposta ad uno stimolo. Tra l'altro, è questo il motivo per cui il cervello umano (o dei mammiferi in generale) ha diverse strutture con diversi livelli di complessità: il movimento è controllato in gran parte dal cervelletto e dai gangli della base, ad esempio: la corteccia (più sofisticata) può controllare i movimenti direttamente, e lo fa (attraverso quelle che si chiamano le vie piramidali), permettendo di compiere movimenti di precisione, ma impiega circa tre secondi per reagire ad uno stimolo, quindi non può funzionare, ad esempio, per reagire quando inciampiamo, e serve una reazione molto più rapida.

    pgc ha detto...

    Una soluzione potrebbe essere semplificare l’ambiente operativo, creando strade su misura, rigidamente normate, accessibili soltanto a veicoli autonomi o assistiti. Per esempio, un ascensore (che in sostanza è un treno verticale in una galleria verticale chiusa) è un sistema di “guida autonoma” affidabilissimo, che richiede pochissima “intelligenza” grazie a un ambiente operativo ipersemplificato.
    Esistono le api (che leggevo in un libro che sono considerate una forma di intelligenza cooperativa straordinaria) ma ci sono anche i pipistrelli: un sistema di remote sensing (radar e lidar) in grado di ricostruire l'ambiente circostante eviterebbe la gran parte (non tutti)a dei problemi che hai elencato. La bici montata sul retro dell'auto, per esempio, non sarebbe un problema impossibile da trattare. I cartelli mobili nemmeno.

    La testardaggine di Musk a non accettarlo mi sembra il classico esempio di irrigidimento mentale conseguenza del successo estremo: ho avuto ragione N volte con N molto grande e quindi ho ragione anche la volta N+1.

    Manzini Moreno ha detto...

    Ciao


    Non di me, io sono un ammazza mosche provetto 8<))))


    Ciao Ciao, Moreno

    Manzini Moreno ha detto...

    Ciao


    Non dalle nostre parti, spesso e volentieri si mettono a rubare il rame delle linee elettriche.
    Cercando, l'ultima è del 30 agosto https://bari.repubblica.it/cronaca/2021/08/30/news/furto_200_metri_cavi_di_rame_su_ferrovia_bari-matera-315871214/
    Si devono decidere a fare le linee elettriche in alluminio come hanno fatto per la rete d'illuminazione del GRA 8<))



    Ciao Ciao, Moreno

    Paolo Attivissimo ha detto...

    Potrebbe non avere torto. Se guardi le conferenze più recenti di Karpathy (che ovviamente è di parte, lo so), mostra come il machine learning applicato a sequenze di immagini stia permettendo di ricostruire l'ambiente circostante in 3D con risoluzione maggiore di quella del Lidar e senza conflitti fra visione e scansione.

    Ormeggio ha detto...

    Infatti, almeno qui dalle mie parti, le linee rubate le ripristinano con linee in alluminio ;-)

    pgc ha detto...

    certo, Paolo: "potrebbe". Quello che intendevo sottolineare è che contestare la fattibilità di un possibile approccio non significa necessariamente escludere la fattibilità di un QUALSIASI approccio.

    Il tuo articolo è interessante e discute anche soluzioni alternative come l'ambiente controllato, ma a mio parere sembra suggerire che la guida autonoma o robotizzata non sia assolutamente possibile su strade normali, mentre secondo il parere di parte degli esperti, appunto, non è detto. Waymo dimostra che con una scelta diversa, in ambienti limitati, le cose possono andare diversamente:

    Waymo has released [2020, nda] a detailed incident report for all their operations around Phoenix, Arizona over the past several years and over 6 million miles.

    [...]

    All the events had the other driver/road user at fault in some way under the vehicle code, according to Waymo.
    There were no incidents of single vehicle incidents (ie. driving off the road) which are pretty common with human drivers.
    Nationally, 6.1 million miles of driving by a good driver should result in about 40-60 events, most of which are small dings, 22-27 or which would involve an insurance claim, 12 which would get reported to police and 6 injury crashes. With no at-fault events in 8 lifetimes of human driving, Waymo’s performance is significantly superior to a human, even in an easy place like Chandler.

    da https://www.forbes.com/sites/bradtempleton/2020/10/30/waymo-data-shows-incredible-safety-record--they-should-deploy-today/?sh=306119a93829

    Per dire che a mio parere il riferimento, per quanto riguarda la guida autonoma, non è Tesla (per molte altre cose si). Come lo si spiega? Per due ragioni: primo, certamente per il confinare l'azione ad un ambiente ristretto e controllato, ma questo limite può essere cambiato incrementalmente nel tempo. Secondo, perché la sensoristica delle auto di Waymo prevede la costruzione di un ambiente 3D e non solo l'impiego di DL.

    pgc ha detto...

    si possono taroccare le strade anche per utenti umani (o quasi

    Paolo Attivissimo ha detto...

    Il problema dell'approccio di Waymo, per quel che ho capito, è che dipende enormemente da una pre-mappatura accuratissima del percorso, e che questa mappatura deve essere tenuta costantemente aggiornata. Rischia di non essere scalabile.

    E comunque nonostante tutte queste restrizioni, la frenata senza motivo capita anche a Waymo, e in un caso ha portato a un tamponamento (leggero, ma pur sempre un tamponamento che non sarebbe avvenuto con un conducente umano, perché un conducente umano difficilmente inchioderà senza motivo apparente mentre ha davanti la strada libera).

    " A white Waymo minivan was traveling westbound in the middle of three westbound lanes on Chandler Boulevard, in autonomous mode, when it unexpectedly braked for no reason. A Waymo backup driver behind the wheel at the time told Chandler police that "all of a sudden the vehicle began to stop and gave a code to the effect of 'stop recommended' and came to a sudden stop without warning."

    A red Chevrolet Silverado pickup behind the vehicle swerved to the right but clipped its back panel, causing minor damage. Nobody was hurt."

    Waymo's vehicles sometimes hesitate longer than a human would when they encounter complex situations they don't fully understand. Human drivers sometimes find this frustrating, and it occasionally leads to crashes. In January 2020, a Waymo vehicle unexpectedly stopped as it approached an intersection where the stoplight was green. A police officer in an unmarked vehicle couldn't stop in time and hit the Waymo vehicle from behind. Again, no one was seriously injured.

    self-driving cars are likely to make different types of mistakes than human drivers. So it's not sufficient to make a list of mistakes human drivers commonly make and verify that self-driving software avoids making them. You also need to figure out if self-driving cars will screw up in scenarios that human drivers deal with easily. And there may be no other way to find these scenarios than with lots and lots of testing.
    https://arstechnica.com/cars/2021/04/why-its-so-hard-to-prove-that-self-driving-technology-is-safe/

    pgc ha detto...

    Capisco il problema, però direi che entrambe le strade hanno pro e contro, con la differenza che a 20 milioni di miglia (dall'articolo arstechnica) siamo ancora a zero incidenti seri, che è un risultato fantastico rispetto a un conducente umano.

    BTW, l'altro giorno ero verso Verona, pioveva a dirotto e stavo in corsia di sorpasso a 90 all'ora cercando di superare un camion lentissimo. Ho visto improvvisamente un birillo di quelli usati come spartitraffico temporaneo in mezzo alla corsia, invece era un riflesso di una luce causato dalla pioggia. Ho frenato e sbandato ma mi sono ripreso fortunatamente, ma debbo dire che ho avuto una certa paura.

    Aggiungo una cosa che stavo pensando dopo aver letto il tuo commento:

    senza conflitti fra visione e scansione
    Insomma, "occhio non vede, cuore non duole"? :-) Attenzione, perché questo discorso contiene una fallacia logica. Immagina infatti di avere due sensori che si contraddicono l'un l'altro. I casi sono due: o sbagliano entrambi, o sbaglia solo uno dei due. Se non dimostri che uno dei due è molto peggio dell'altro il problema non è averne due in contraddizione, ma capire quale sta sbagliando. Se fosse l'unico che hai, la situazione sarebbe ancora peggio in quanto non verresti avvisato dell'errore, che è proprio quello che accade.

    Paolo Attivissimo ha detto...

    Togliendone uno (il lidar/radar per esempio) semplicemente fai finta che il problema non esista

    La teoria di Karpathy (che riporto ma non sono competente a giudicare o confermare/smentire) è che se i due sensori si contraddicono, hai un'ambiguità che non sai come risolvere. A quale dei due credi? E quindi preferisce avere un solo tipo di sensore, a patto che sia sufficiente da solo a discriminare e identificare.

    Non so se è questione di bias: sempre Karpathy dice che siccome il mondo (la strada) è concepita per essere usata da creature dotate di occhi e non di Lidar, la visione è la soluzione più adatta ed è sufficiente. Un Lidar non legge i cartelli di cantiere o i divieti di sosta; una telecamera con OCR sì. Vedremo (è proprio il caso di dirlo): nel frattempo, non mi fido degli assistenti di guida.

    Sempre second

    Angelo ha detto...

    La teoria di Karpathy (che riporto ma non sono competente a giudicare o
    confermare/smentire) è che se i due sensori si contraddicono, hai
    un'ambiguità che non sai come risolvere. A quale dei due credi?



    Una possibile soluzione sarebbe quella di avere un terzo sensore: se tutti e tre forniscono la stessa risposta, sei abbastanza sicuro che sia quella giusta. In caso di discordanza, consideri più probabilmente vera l'informazione riferita dalla maggior parte di essi (se due sensori ti dicono che c'è via libera, e uno che c'è un ostacolo, è più probabile che la via sia libera, ma puoi rallentare per precauzione, visto che l'informazione è dubbia)


    (nota: non sono un esperto di IA come Karpathy, mi sono solo ricordato del racconto "Rapporto di minoranza" ;-) )

    Mauro CI ha detto...

    ancora OT: Non ho avuto occasione di leggere il racconto, ma se la logica del film segue la stessa del racconto, ti faccio notare che in quel caso il rapporto di minoranza era quello corretto...

    pgc ha detto...

    Io non saprei francamente fino a che punto OGGI i sistemi di assistenza alla guida siano affidabili, ma penso che potrebbe funzionare in futuro, almeno in certe condizioni. Certo il fatto che Waymo sia rimasto dov'era due anni fa ( vedi https://arstechnica.com/cars/2021/05/why-hasnt-waymo-expanded-its-driverless-service-heres-my-theory/?itm_source=parsely-api ) suggerisce che un problema si pone.

    Totomul ha detto...

    Anche tu commetti una fallacia logica: i due sensori potrebbero avere entrambi ragione ;-)

    pgc ha detto...

    non credo si possa applicare, almeno in generale, la logica che per esempio si applicava ai computer dello Space Shuttle. Se si trattasse di 3 sistemi di AI indipendenti che hanno fatto DL in maniera autonoma e danno interpretazioni discordanti ok, ma se si tratta di 3 sensori diversi (di questo si parlava, aka camera, lidar e radar?) dipende strettamente dalla situazione.

    Totomul ha detto...

    Stesso concetto sulla sicurezza informatica: opportunità. Mettere un cartello falso o disegnare un linea bianca per terra sarà molto più semplice in posti aperti ed accessibili a tutti per definizione.
    Non parlo di stragi o di attentati terroristici, parlo banalmente della ragazzata di far finire addosso ad un muro il trasporto della pizza a domicilio ad esempio.

    Trovare nuovi modi per ingannare questi mezzi qualcuno lo chiamerebbe hacking...

    Luca ha detto...

    La Safety Enveloppe non la conoscevo, esiste comunque anche un ulteriore limite di qualsiasi sistema (anche umano) che possiamo riassumere con il dilemma del tram (o del carrello ferroviario) ovvero il dilemma etico.
    Già a livello umano è un problema non banale dover scegliere tra un rischio di un tipo ed un altro, spesso in frazioni di secondo.

    Luca ha detto...

    A mio avviso uno scenario non limita l'altro. Anche io credo che la soluzione finale sarà una strada dedicata con sensori, connessione dei veicoli vicini ecc.... ma è comunque necessario avere anche una interpretazione di quello che succede attorno direttamente (anche solo viaggiando con la strada isolata, ma anche se in strada ci fossero degli animali). Ad oggi non credo che la potenza di calcolo locale possa supportare tutto questo, ma tra qualche decina d'anni credo che lo scenario potrebbe essere meno futuristico. Esisterà allora il problema di predisporre le strade.

    Stefano Turolo ha detto...

    e ne guadagnerebbe anche il traffico: ad esempio elimina tutti i "diversamente furbi" che in autostrada saltano la coda di chi esce per immettersi di forza negli ultimi 10 metri rischiando incidenti, rallentando ulteriormente la coda e creandone una seconda (uscita sesto san giovanni docet)

    R. D. Olivaw ha detto...

    Alcuni sistemi se non riescono ad interpretare la situazione si disattivano e lasciano il comando al guidatore umano. Quindi la fallibilità del sistema è prevista.

    Stefano Turolo ha detto...

    infatti alcune reazioni che compiamo non sono date dal cervello ma, semplificando, dal midollo spinale. Questo avviene, ad esempio, quando tocchiamo qualcosa di rovente, l'ordine iniziale di togliere la mano viene dal midollo, nel frattempo l'impulso continua fino al cervello e avvertiamo il calore, con la mano già tolta. Così era scritto sul mio libro di anatomia.

    R. D. Olivaw ha detto...

    Come tutte le cose che non posso risolvere, non mi preoccupa.

    Pasquale Panuzzo ha detto...

    Che il deep learning abbia dato una grossa spinta alla guida autonoma (e a tutto quel che riguarda in generale l'IA, aggiungerei), e' senza dubbio vero. Ma tecnicamente e' un sottoinsieme del machine learning, che e' a sua volta un sotto insieme del IA.


    Riguardo il fatto che (solo) con il deep learning una IA puo' imparare senza input umano, questo non e' esatto: c'e' il deep learning supervisionato (in cui l'apprendimento si fa su dati classificati da "umani") e deep learning non supervisionato (in cui l'apprendimento si fa su dati non classificati). Inoltre molte tecniche di Machine Learning sono non supervisionate. Tornando al caso specifico della guida autonoma, in questo ambito si usa soprattutto il deep learning supervisionato: si fa vedere alla rete neurale una foto di un semaforo e gli si dice "e' un semaforo".

    Marcus Marcus ha detto...

    Da quello che ho potuto leggere e capire, il radar dalle Tesla è stato disattivato perché è uno strumento molto impreciso. Ti dice che c'è qualcosa davanti a te "più o meno lì", ma in una strada c'è sempre qualcosa davanti a te "più o meno lì", quindi era un continuo di falsi positivi.
    Quello che non capisco è perché non mettono delle telecamere in posti più strategici. Per esempio mettere due telecamere in alto sul parabrezza, ma all'estremo destro e all'estremo sinistro invece che al centro (in questo modo un software dedicato può pure ricostruire un ambiente tridimensionale), e perché non mettono delle telecamere vicino ai fari anteriori per cogliere meglio gli angoli ciechi.

    dani1967 ha detto...

    Simili problemi comunque non è detto che non possano capitare agli umani. Ricordo che anni fa c'era una pubblicità alla radio in cui si sentiva una inchiodata; più di una volta mi è capitato di avvicinare pericolosamente il piede al freno prima di rendermi conto che era una finzione. Trovavo quella pubblicità estremamente pericolosa, e mi ingannava un po' come i finti semafori.

    Van Fanel ha detto...

    se ben ricordo, sia nel libro che nel film il colpo di scena è che non c'è alcun rapporto di minoranza, sebbene per due motivi diversi.
    Nel libro è perché i tre veggenti hanno predetto 3 cose diverse.
    Nel film è perché i tre veggenti hanno predetto tutti la stessa cosa
    Ricordo male?

    Van Fanel ha detto...

    (se poi il tram è pieno di lupi... )

    pgc ha detto...

    eh eh eh, certo ma no, perché il problema in quel caso il problema non si pone.

    pgc ha detto...

    vero anche questo. il lidar però, che non è altro che un radar ad altissima frequenza, pur con i suoi limiti, è molto più accurato, anche se antiestetico.

    Manzini Moreno ha detto...

    Ciao


    Concordo, si possono cercare di prendere solo i vantaggi di tutti i sistemi cercando di minimizzarne gli svantaggi.


    Come hanno recentemente fatto gli UK prima si fanno le cose facili e poi si pensano a quelle difficili, hanno recentemente autorizzato, con palettoni notevoli, le auto a guida autonoma sulle loro autostrade.
    Staremo a vedere come vanno.



    Ciao Ciao, Moreno

    Stefano Turolo ha detto...

    per mauro: film e libro sono abbastanza diversi.

    Van, nel libro mi sembra di ricordare che avevano predetto tre cose diverse inoltre era diversa quasi tutta la trama

    Come Total recall, d'altronde, nel libro molto più bello e "assurdo" il finale... forse anche troppo.

    Mauro CI ha detto...

    Io ricordo che nel film il rapporto di maggioranza era incompleto.
    Forse è già ora di rivederlo?

    Mauro CI ha detto...

    film e libro sono abbastanza diversi.



    Non mi stupisce, in particolare parlando di P. Dick...



    Come Total recall, d'altronde, nel libro molto più bello e "assurdo" il finale... forse anche troppo.



    Due capre dietro un capannone di Cinecittà trovano delle "pizze" di pellicola.
    Una delle due si avvicina e comincia a masticare la celluloide.


    L'altra la guarda incuriosita e le fa "com'è?"
    E quella "mah... preferivo il libro"
    ~

    Van Fanel ha detto...

    eh beh la roba "visionaria" è un marchio di fabbrica del buon Filippo D. Cavolo a cui siamo abituati, così come ormai siamo abituati che Hollywood ne faccia polpette esplosive (per questo tremo ogni volta che a L.A. dicono "vai che domani facciamo il film di Ubik, stavolta sul serio", per fortuna poi non lo fanno mai)

    MaxFrames ha detto...

    Il problema "bioetico" posto dalla domanda "è auspicabile un sistema di guida autonoma che sbaglia in maniera diversa dagli umani, se mediamente ne derivano meno incidenti rispetto alla guida umana" è tutt'altro che banale perché la nostra cultura giustamente non guarda solo alle medie e alla conservazione della specie, ma anche e soprattutto a quella dell'individuo. E' accettabile perdere una persona cara per un errore di un sistema di guida autonoma che un umano non avrebbe mai commesso, anche se sapessimo che quello stesso sistema ha mediamente salvato centinaia di vite in altri casi? Il dilemma vale in qualsiasi campo, anche nella medicina.

    MaxFrames ha detto...

    Per tornare su un terreno meno minato; mi sono sempre chiesto se sia tanto difficile insegnare a un sistema GPS a capire che se stai attraversando un fiume in automobile dove non c'e' un ponte, o se stai allegramente attraversando terreni incolti a 90 kmh o trapassando abitazioni, uffici e centri commerciali, forse e' il caso di scrivere "OK, non ho idea di dove siamo" e riallinearsi con i satelliti invece di proclamare con sicumera che se fai un'inversione a U poi alla prossima rotonda prendi a destra...

    LaoDan ha detto...

    Forse hai ragione. Ma se il sistema interpreta scorrettamente la situazione non si disattiva, perché è riuscito ad interpretarla. Il problema che vedo io è la difficoltà di gestire le interpretazioni scorrette.
    Personalmente so di essere fallibile, ma quando riesco a produrre un'interpretazione che mi pare corretta la considero valida fino a che qualche evento, contraddicendola, non mi induce a rivederla. E se l'interpretazione che mi pare corretta (ma non lo è) mi conduce a sbattere contro un muro potrei non avere il tempo di rivederla.:-)

    LaoDan ha detto...

    quell'incidente cambiò radicalmente il corso della mia vita

    Caso esemplare di sliding car
    Hai anche smesso di fumare? :-)

    Mauro CI ha detto...

    Vero, basti vedere "Io robot".
    Vero è anche che, senza grande rimaneggiamento, Dick non è facile.

    Giulio Manfreda ha detto...

    Questo è sicuramente un problema importante, di cui si è già discusso in passato anche in questi lidi.

    Ricordo che un dirigente di Mercedes disse candidamente che un loro veicolo avrebbe sempre favorito la sicurezza degli occupanti, per la semplice ragione che nessuno comprerebbe un'auto che "in qualche occasione potrebbe decidere di ucciderti per il bene comune". Come dargli torto, tu la compreresti? :)

    È un serio problema etico, che prima o poi dovrà essere controllato da norme chiare e standardizzate e non lasciato all'arbitrio dei produttori. Ma ho come l'impressione che non siamo ancora a questo livello di precisione nel riconoscimento e nel decision making del veicolo.

    Manzini Moreno ha detto...

    Ciao


    SNo, ho avuto un andamento ondivago, diciamo che per complessivamente circa 25 anni non ho fumato se non saltuariamente, da circa 3 anni ho ripreso.


    Ciao Ciao, Moreno

    Manzini Moreno ha detto...

    Ciao


    Beh, lo steso discorso potrebbe essere fatto per i vaccini, salvano il 99,99% degli individui ma ne ammazzano lo 0,01%.
    Visto che la morte non può essere sconfitta direi che bisogna essere pragmatici, se il calo della mortalità è estremamente significativo direi che basta ed avanza per adottare la nuova soluzione.


    Ciao Ciao, Moreno

    Van Fanel ha detto...

    Bravo merlo che ci hai rivelato il momento che ha cambiato la tua vita. Ora dovrai guardati le spalle, letteralmente (porta con te dell'insetticida, ti servirà), e stare lontano dalle indovine da baraccone...