TeslaTesla
Una Tesla Model 3 con funzione ''vienimi a prendere'': ecco il video della dimostrazione fatta in un parcheggio
di Carlo Pisani pubblicata il 08 Maggio 2019, alle 10:41 nel canale TecnologiaTesla attualmente è al lavorando per sviluppare una nuova funzione definita Advance Summon, ovvero la possibilità di non solo far muore l'auto in maniera autonoma di qualche metro, bensì poter compiere percorsi più articolari senza la necessità di una persona alla guida
94 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoQualsiasi cosa se usata nel modo sbagliato comporta maggiori rischi. Ma un conto e' un prodotto "inerte", altro e' uno che ha una sua autonomia decisionale.
Tesla deve impedirne un uso improprio. Ma si gongola sulle "incredibili" prestazioni dei suoi giocattoli.
Nei report esistenti già ora il rapporto Km/incidenti è ampiamente a favore di questi sistemi, che possono solo migliorare col tempo.
Si, elevatissimo, perche' il rischio è dato da prodotto tra la probabilita' ed il danno, anche se la probabilità e' bassa, ed e' tutto da dimostrare, il danno è molto alto. Ripeto, tu da buon fan tesla sei molto "eccitato" quel quello che puo' fare. Ma è un prodotto molto pericoloso.
Ma fammi capire il nocciolo della questione. L'AI si sostituisce all'uomo, che non solo può fare, ma quotidianamente fa, stragi sulle strade. Se il problema sono le "decisioni imprevedibili", di cui l'uomo è il campione, a questo punto perché dovresti permettere la guida all'uomo? In quale modo è preferibile essere investito da uno/a che stava guardando il cellulare, ubriaco, distratto, incapace, etc. etc., piuttosto che da un'AI, se statisticamente questa fa meno incidenti?
Statisticamente secondo quale studio? Sugli incidenti di quelli che guidano una tesla mentre si fanno gli affari loro? Tesla non ha la guida autonoma.
Immagino un futuro dove tu chiamerai la tua auto e lei esce dal box di casa e ti viene a prendere.
Secondo l'ultimo Tesla Vehicle Safety Report:
“In the 1st quarter, we registered one accident for every 2.87 million miles driven in which drivers had Autopilot engaged,” the automaker said today. “For those driving without Autopilot, we registered one accident for every 1.76 million miles driven. By comparison, NHTSA’s most recent data shows that in the United States there is an automobile crash every 436,000 miles.”
Poi puoi dirmi che non credi a Tesla, ma allora diventa un "moot point", perché una fonte più attendibile sull'Autopilot non esiste.
Che si facciano o meno gli affari loro è irrilevante, il punto - il tuo, eh - è se l'incidente sia causato o meno dall'AI, ovvero dalle "decisioni imprevedibil", e ti ripeto la domanda: se il problema sono le "decisioni imprevedibil", perché dovresti permettere la guida all'uomo? Se è un problema di statistica allora in questo momento, visto che non c'è la guida autonoma, non puoi dire niente.
https://www.wired.com/story/audi-se...-availablility/
https://www.autoblog.it/post/887100...affic-jam-pilot
https://www.cnet.com/roadshow/news/...ion-not-for-us/
Lo sai cosa fa Tesla? Ho proprio la sensazione di no.
E comunque stai continuando a saltare da un punto all'altro, se il problema è l'uso improprio le "decisioni imprevedibili" non sono rilevanti e tutti gli esempi che ti sono stati fatti sopra di uso improprio si applicano anche all'Autopilot; e se il problema sono le "decisioni imprevedibili" allora l'uso proprio è irrilevante - e come già detto, non avrebbe senso che l'uomo possa guidare.
Insulti gratuiti
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".