Nuovo guaio per Autopilot Tesla: sotto indagine per troppi incidenti contro mezzi di soccorso
di Massimiliano Zocchi pubblicata il 17 Agosto 2021, alle 09:32 nel canale Tecnologia
L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta
L'NHTSA (National Highway Traffic Safety Administration), l'ente statunitense per la sicurezza stradale, ha aperto un'indagine sul sistema Autopilot di Tesla, in relazione ad una serie di incidenti che hanno coinvolto veicoli dell'azienda californiana, e mezzi d'emergenza o di primo soccorso.
Si tratta, a quanto comunica l'NHTSA, di 11 incidenti, accaduti tra il gennaio 2018 e luglio 2021, ed in tutte le situazioni le auto Tesla si avvicinavano al luogo dell'incidente con Autopilot attivato, o in alcuni casi solo con il Cruise Control che segue il flusso del traffico.
È evidente che in un lasso di tempo così ampio, e con quasi un milione di Tesla in strada negli Stati Uniti, questi incidenti possano sembrare frutto solo del caso, ma lo scopo dell'ente è probabilmente capire se il sistema Autopilot abbia delle criticità in determinate situazioni. Secondo quanto dichiarato, infatti, in tutti gli 11 casi vi erano in funzione luci lampeggianti, coni luminosi o razzi illuminanti. Il dubbio dunque è che possano esserci situazioni in cui una luminosità artificiale alteri la percezione di un veicolo fermo a bordo strada.
È dunque lecito che l'NHTSA metta sotto scacco un'azienda per una casistica così irrisoria? A questa domanda si potrebbe rispondere affermativamente, se si considera che il lavoro dell'ente per la sicurezza è proprio questo: andare a scovare anche dettagli che paiono irrilevanti, per migliorare sempre più la sicurezza, e invitare le aziende a migliorare i propri sistemi, anche dove non sembrano esserci difetti. In passato Tesla ha sempre collaborato con le indagini, ed in alcuni casi sono state decise delle modifiche proprio grazie alle conclusioni dei procedimenti.
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info...
non sembrano esserci difetti
Mi scusi Sig. Zocchi, queste sono affermazioni di qualche autorità oppure è la sua opinione ?
Altre informazioni:
Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a...hes-fatalities/
Io affermai che la tecnologia è interessante ma ancora necessita di molti approfondimenti e miglioramenti per poter essere applicata ad occhi chiusi. Questa materia è proprio quella in cui mi sono laureato diversi anni fa, anche se ora faccio tutto un altro lavoro.
Altre informazioni:
Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a...hes-fatalities/
Prima di tutto è necessario fare una premessa fondamentale: Autopilot, ad oggi, è un sistema di livello 2 sulla scala SAE, per cui è solo assistenza alla guida, che necessita si attenzione a intervento continuo del conducente umano. Per cui gli incidenti non sono da imputare ad Autopilot, ma appunto al conducente. Chi usa Autopilot come guida autonoma viola i termini di utilizzo, oltre a compiere un illecito nel caso usi un accessorio per ingannare il rilevatore di mani sul volante.
Detto questo, arrotondando a 1 milione le vetture Tesla presenti su strada, 11 auto coinvolte rappresentano lo 0,0011 % delle auto. Che sia una casistica irrisoria è sia mia opinione, sia un dato noto, credo. Poniamo anche il caso che ci siano casi non dichiarati o sconosciuti, per cui questi casi siano in realtà 10 volte di più, resterebbe una percentuale, come detto, irrisoria.
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
Concordo sul nome.
Sulle percentuali, pure nella vita dovrebbero essere zero, eppure c'è un sacco di gente che scivola nella vasca da bagno. Colpa della vasca, o colpa dell'utente?
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
Non vorrei dire ma pure i piloti automatici degli arei non sono perfetti ma anzi causano anche loro svariati incidenti o situazioni di pericolo, al momento nessun sistema che non sia su rotaia in sede propria non è sicuro al 100%.
Il problema, secondo me è che gli essere umani sono ottimi esecutori ma pessimi controllori, ci si abitua troppo ad un sistema automatico e la volta che non funziona non si reagisce.
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
Sicuramente il nome non è dei più corretti, ma in fondo c'entra molto anche il marketing. A parte il nome, può chiamarsi anche "guido da solo guarda pure un film", Prima di affidare la tua vita ad un sistema del genere non cerchi di capire un minimo come funziona veramente? O ci si ferma al nome?
Tutti quelli che lo usano dormendo, leggendo o facendosi i cazzi loro sono semplicemente degli incoscienti.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".