Tesla

Un incidente fatale con FSD di Tesla mette sotto inchiesta il sistema di guida autonoma

di pubblicata il , alle 16:53 nel canale Auto Elettriche Un incidente fatale con FSD di Tesla mette sotto inchiesta il sistema di guida autonoma

Diversi episodi di incidenti, tra cui uno mortale, ha spinto l'NHTSA ad aprire una procedura d'indagine sull'FSD di Tesla e sul suo comportamento in condizioni di ridotta visibilità

 

Elon Musk non perde occasione per decantare le lodi del sistema FSD, Full Self Driving, ora indicato spesso come FSD (supervised), nonostante i test sul campo continuino a dimostrare delle lacune importanti.

Intendiamoci, il sistema negli ultimi mesi è migliorato molto, riducendo sensibilmente la necessità di interventi umani per errori alla guida, ma sembra che la strada intrapresa, quella delle sole videocamere come sorgente visiva, possa avere dei limiti. È invece quasi certo che i limiti li abbia l'architettura dei veicoli 3.0, e forse addirittura anche i 4.0, a causa dell'alta capacità di calcolo necessaria.

Proprio questi limiti sono ora sotto la lente d'ingrandimento dell'NHTSA, l'ente per la sicurezza stradale americano, a seguito di incidenti sospetti. I costruttori sono tenuti a seguire una auto regolamentazione, segnalando incidenti che coinvolgono l'uso di ADAS, categoria a cui anche FSD appartiene. Tali segnalazioni prendono il nome di Standing General Orders (SGO).

FSD

A seguito di alcune segnalazioni di questo genere, tra cui anche un incidente con esito mortale, l'NHTSA ritiene di aver identificato un modello preoccupante che riguarda situazioni di visibilità ridotta. Questo è quanto si legge nel rapporto: "L'Office of Defects Investigation (ODI) ha identificato quattro segnalazioni di Standing General Order (SGO) in cui un veicolo Tesla ha subito un incidente dopo essere entrato in un'area con condizioni di ridotta visibilità stradale con FSD-Beta o FSD-Supervised (collettivamente, FSD) attivati. In questi incidenti, la ridotta visibilità stradale è derivata da condizioni quali abbagliamento del sole, nebbia o polvere nell'aria. In uno degli incidenti, il veicolo Tesla ha colpito mortalmente un pedone. Un altro incidente in queste condizioni ha comportato un infortunio segnalato".

I problemi segnalati sono dovuti proprio alla scelta di affidarsi alle sole videocamere, senza radar, LiDAR o sensori di altro genere per ricostruire l'ambiente circostante. L'agenzia quindi ha avviato una valutazione preliminare dell'FSD di Tesla, che riguarda tutti i veicoli Tesla costruiti dal 2016.

Con la procedura si intende valutare la capacità delle componenti tecniche di rispondere adeguatamente in condizioni di ridotta visibilità, oltre a ricercare possibili altri incidenti simili e le relative cause. La conseguenza dei primi punti è la possibilità di modifiche o aggiornamenti al sistema. Già in altre occasioni Tesla se l'era cavata con semplice aggiornamento OTA, ma questa volta la soglia di attenzione delle autorità sembra più alta.

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
amd-novello18 Ottobre 2024, 17:07 #1
"I problemi segnalati sono dovuti proprio alla scelta di affidarsi alle sole videocamere, senza radar, LiDAR o sensori di altro genere per ricostruire l'ambiente circostante. L'agenzia quindi ha avviato una valutazione preliminare dell'FSD di Tesla, che riguarda tutti i veicoli Tesla costruiti dal 2016.

Con la procedura si intende valutare la capacità delle componenti tecniche di rispondere adeguatamente in condizioni di ridotta visibilità, oltre a ricercare possibili altri incidenti simili e le relative cause."


era ora
Ago7218 Ottobre 2024, 17:13 #2
Che bello auto-quotarsi:

Originariamente inviato da: Ago72
Anche le videocamere falliscono in caso di luce anomala. e questo accade non di rado, contorni non ben definiti, quando sono abbagliate da una fonte luminose, di notte, mal tempo, etc..


Era il 18 agosto 2021...
Mo4218 Ottobre 2024, 17:22 #3
Preparo i pop-corn per quando arriveranno quelli che inizieranno a dire "aNcHe gLi UmAnI sBaGlIaNo!!1!1!"
ginogino6518 Ottobre 2024, 17:45 #4
Originariamente inviato da: Mo42
Preparo i pop-corn per quando arriveranno quelli che inizieranno a dire "aNcHe gLi UmAnI sBaGlIaNo!!1!1!"


Certamente anche gli umani sbagliano, ma quando lo fanno ne sono responsabili, se sbaglia il software della macchina chi ne è responsabile.
Massimiliano Zocchi18 Ottobre 2024, 17:49 #5
Originariamente inviato da: Ago72
Che bello auto-quotarsi:



Era il 18 agosto 2021...


Sebbene io non mi ritenga competente nel settore in oggetto (cioè intelligenza artificiale e rete neurale applicata alle immagini) giuro che ho sempre sostenuto che, secondo me, usare solo le videocamere era un errore.
gomax18 Ottobre 2024, 17:54 #6
Troppa fiducia nell'elaborazione IA delle sole videocamere. Da ignorante in materia, credo che alcuni scenari specifici siano impossibili da elaborare correttamente senza radar/LIDAR, l 'IA lavora con ciò che vede, ma se per qualsiasi motivo le telecamere sono "cieche" in quella frazione di secondo non c'è potenza di calcolo che tenga se non ha i dati lavorare.

Ciao
TorettoMilano18 Ottobre 2024, 18:05 #7
non essendo esperto giuridicamente, e quindi ancora meno in merito all'america, mi sfugge dove verte l'inchiesta.
si parla di adas e quindi l'utente deve comunque essere vigile e leggo si parli in passato tesla se la sia cavata con un aggiornamento ota.
ipotizzando l'ultima versione sia efficace con hw3 e hw4 basterebbe far aggiornare tutte le tesla?

in merito al discorso "solo telecamere" noi guidiamo da sempre solo con gli occhi e ne abbiamo solo due con riflessi infinitamente più lenti delle macchine, se le stesse hanno dei limiti che noi non abbiamo allora condivido la scelta possa essere sbagliata. se invece surclassano la nostra vista da ignorante continuo a non ritenere necessari ulteriori sensori
OUTATIME18 Ottobre 2024, 18:15 #8
Originariamente inviato da: TorettoMilano
non essendo esperto giuridicamente, e quindi ancora meno in merito all'america, mi sfugge dove verte l'inchiesta.
si parla di adas e quindi l'utente deve comunque essere vigile e leggo si parli in passato tesla se la sia cavata con un aggiornamento ota.
ipotizzando l'ultima versione sia efficace con hw3 e hw4 basterebbe far aggiornare tutte le tesla?

in merito al discorso "solo telecamere" noi guidiamo da sempre solo con gli occhi e ne abbiamo solo due con riflessi infinitamente più lenti delle macchine, se le stesse hanno dei limiti che noi non abbiamo allora condivido la scelta possa essere sbagliata. se invece surclassano la nostra vista da ignorante continuo a non ritenere necessari ulteriori sensori

Nella seconda frase ti rispondi alla domanda che fai nella prima: visto che i sistemi ADAS sono intrinsecamente più reattivi dell'uomo, la vigilanza dell'utente passa in secondo piano, di conseguenza usarla come scusante lascia il tempo che trova.
Detto questo, in base al risultato dell'inchiesta, potrebbe anche essere richiesto di inserire ulteriori sicurezze, tipo un controllo sull'attenzione del guidatore, cosa che Musk ovviamente non vorrebbe fare.
TorettoMilano18 Ottobre 2024, 18:35 #9
Originariamente inviato da: OUTATIME
Nella seconda frase ti rispondi alla domanda che fai nella prima: visto che i sistemi ADAS sono intrinsecamente più reattivi dell'uomo, la vigilanza dell'utente passa in secondo piano, di conseguenza usarla come scusante lascia il tempo che trova.
Detto questo, in base al risultato dell'inchiesta, potrebbe anche essere richiesto di inserire ulteriori sicurezze, tipo un controllo sull'attenzione del guidatore, cosa che Musk ovviamente non vorrebbe fare.


la mia era un riflessione a "regime", non a caso ora è un lv2 di guida autonoma. mi chiedevo se come lv4/lv5 bastassero le telecamera, se bastano a noi due occhi mi verrebbe di dire di si, di qui la mia riflessione

sul controllo del guidatore mi pare sia già inserito, fino a poco fa era obbligatorio tenere il volante e ora invece puoi non toccarlo ma il sistema di cam verifica se guardi la strada
sbaffo18 Ottobre 2024, 18:58 #10
Originariamente inviato da: Ago72
Che bello auto-quotarsi:

Era il 18 agosto 2021...
Sono andato a ripescare anch'io quella mitica news, dove l'autopilot andava contro i mezzi di soccorso con le lucine accese, evidentemente anche allora le luci lampeggianti confondevano le telecamere.
https://greenmove.hwupgrade.it/news...orso_99904.html

Originariamente inviato da: Massimiliano Zocchi
Sebbene io non mi ritenga competente nel settore in oggetto (cioè intelligenza artificiale e rete neurale applicata alle immagini) giuro che ho sempre sostenuto che, secondo me, usare solo le videocamere era un errore.
Però allora difendevi tesdla a spada tratta, ora ti sei ravveduto per fortuna. Solo toretto resta a difendere il FessSuckDriving.
dall news linkata sopra:
Si tratta, a quanto comunica l'NHTSA, di 11 incidenti, ..... È dunque lecito che l'NHTSA metta sotto scacco un'azienda per una casistica così irrisoria?
e continuava la difesa d'ufficio nei commenti.
Ora finalmente l'entusiasmo sta calando e si torna coi piedi per terra.

A parte le telecamere con i loro limiti, se parliamo di statistiche, io -e tutti quelli del forum credo- non hanno mai ucciso nessuno in auto, quindi siamo tutti meglio di autopilot. Nelle statistiche ci sono gli ubriachi, i drogati, i vecchi, gli imprudenti, ecc. e tutti i casi strani possibili.
Io finchè non è approvato dalle autorità o comunque a regime da anni non affiderei la mia vita a un sistema che non ha responsabilità (perlomeno solo civile non penale, cioè paga soldi ma niente galera).

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^