Tesla

Nuovo guaio per Autopilot Tesla: sotto indagine per troppi incidenti contro mezzi di soccorso

di pubblicata il , alle 09:32 nel canale Tecnologia Nuovo guaio per Autopilot Tesla: sotto indagine per troppi incidenti contro mezzi di soccorso

L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta

 
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
marchigiano19 Agosto 2021, 14:23 #51
Originariamente inviato da: pin-head
L’fsd in alcuni casi sbaglia perché sta imparando, è come se fosse un neo patentato. Nel giro di poco tempo guiderà meglio di qualsiasi essere umano, e salverà molte vite.


si ma sarà un pilota con un occhio solo, senza 10/10 e senza occhiali... con un cervello limitato nei ragionamenti ma solo con tanta memoria...
Ago7219 Agosto 2021, 14:32 #52
Originariamente inviato da: barzokk
Un uomo non si pone il problema di non sapere catalogare un camion della spazzatura non ha mai visto: un uomo vede un camion e vede che le luci sono montate sul camion. E non gli passa per la testa che sia un semaforo.
Non sarà che il FSD sbaglia ANCHE perchè ha immagini in input di bassa qualità ?


Per quelle che sono le mie modeste conoscienze della IA, credo che tue stai giungendo a conclusioni errate, partendo da due tematiche/problemi esistenti.

TL,DR
Di seguito una mi modesta spiegazione riferita solo alla computer vision.

Per quanto riguarda la qualità delle immagine c'è da dire che in alcune condizioni le camere sono molto meglio di quanto può fare un uomo. Ma in altre condizioni sono estremamente peggio, come nel caso di maltempo, mezze luci, penombra, luce abbagliante, etc... Quindi nn è sempre un problema di cattiva qualità(4)

Poi cìè il problema del ricoscimento degli oggetti. Come uomini siamo in grado di identificare un camion come concetto(*), mentre l'IA no.
Oggi quello che facciamo è dare in pasto alla IA (Machine learning) migliaia di immagini di un oggetto in diverse situazioni e dirgli che quello in quella immagine c'è l'oggetto X. Dopo di che se la rete neurale è stata addestrata a dovere, cercare i tipici i sotto oggetti X1, X2,.. che compongono l'oggetto X.
Dopo di che la ML potrebbe tentare di riscostruire nello spazio reale l'oggetto X i suoi sotto oggetti (e tutti gli altri oggetti dell'immagine) andando a creare un modello 3D del mondo che lo circonda, con cui a sua volte correggere e aumentare la qualità dell'immagine.

Se questa operazione per l'uomo è istantanea, per l'attuale generazione di IA richiede una potenza computazione e quindi tempo, molto gravosa. Oltre a fallire quando l'immagine acquisita non viene riconosciuta per via di una distanza notevole con il dataset di addestramento. Mentre per l'uomo il potere di astrazione è molto superiore.

[EDIT] Usando il Lidar si avrebberò meno fallimenti, in quanto non si deve riconoscere l'ambiente circostante, per capire le distanze e gli ostacoli o ingombri.

E quì avviene la divisione tra Tesla e gli altri produttori. Essendo questa tecnica gravosa dal punto di vista computazionale, Gli altri usano il Lidar, oltre alle immagini delle telecamere, per ricostruire l'ambiente 3D circostante(2) riducendo la mole di calcoli.
Tesla invece sostiene che sono in grado di sviluppare una IA in grado di fare quanto fatto dall'uomo, senza l'uso del Lidar(3)

PS
Non sono un esperto di IA e di computer vision, quindi ogni correzione a quanto scritto è assolutamente benvenuta, così imparo qualcosa.

(1) In realtà dal punto di vista filosofico la cosa è molto dibattuta
(2) Usano anche la IA
(3) Spero che nel video sopra postato vi siano dettagli su come lo faranno
(4) Cornell researchers have discovered that a simpler method, using two inexpensive cameras on either side of the windshield, can detect objects with nearly LiDAR’s accuracy and at a fraction of the cost
barzokk19 Agosto 2021, 14:37 #53
Originariamente inviato da: Qarboz
Hai guardato il video in fondo all'articolo del link? Si vede chiaramente il grossolano errore dell'AI

No perchè sono un coione e non ho scrollato in fondo
Grazie, ho visto: i cartelloni sono lontani, per me rafforza i sospetti di scarsa risoluzione delle immagini in input.
I casi sono 2:
o migliorano la percezione tridimensionale in modo da misurare la distanza (ma non credo che basterà
o ci installano delle cam da 100 megapixel, e vedi che le scritte le distingue.


Originariamente inviato da: pin-head
L’fsd in alcuni casi sbaglia perché sta imparando, è come se fosse un neo patentato.

barzokk19 Agosto 2021, 14:48 #54
Originariamente inviato da: Ago72
Per quelle che sono le mie modeste conoscienze della IA, credo che tue stai giungendo a conclusioni errate, partendo da due tematiche/problemi esistenti.

TL,DR
Di seguito una mi modesta spiegazione riferita solo alla computer vision.

CUT

Ho paura che la situazione attuale sia la somma tutto di quello che abbiamo detto.
Più ancora un bel po'
pin-head19 Agosto 2021, 20:58 #55
Originariamente inviato da: marchigiano
si ma sarà un pilota con un occhio solo, senza 10/10 e senza occhiali... con un cervello limitato nei ragionamenti ma solo con tanta memoria...


È chiaro che non conosci minimamente l’argomento.
barzokk29 Agosto 2021, 09:44 #56
E' successo ancora, per fortuna non c'è il morto

A Tesla Model 3 hit a parked police car in Orlando, driver said she was ‘in Autopilot’
https://www.cnbc.com/2021/08/28/tes...-autopilot.html


Adesso aspettiamo i debunker che recuperano i filmati con le prove,
che il guidatore mente per l'assicurazione,
che è colpa del poliziotto,
che la NHTSA "illecitamente" indaga
ecc
AlPaBo29 Agosto 2021, 16:01 #57
Originariamente inviato da: barzokk
Non sarà che il FSD sbaglia ANCHE perchè ha immagini in input di bassa qualità ?


Il numero di coni (sono le cellule che percepiscono il colore) nella retina è di circa 6-7 milioni. Come risoluzione l'occhio umano è paragonabile a una fotocamera con 6-7 Mpixel (ci sono molti più bastoncelli, ma sono utili per la visione notturna con basse intensità di luce). Devi inoltre considerare che la parte centrale dell'occhio (la fovea) non ha cellule per la visione; come se in un sensore ci sia un "buco" in mezzo, molto più grande del notch di un cellulare, ma proprio in mezzo all'immagine: ci pensa poi il cervello a ricostruire cosa probabilmente c'era nell'area non visibile.
La nostra capacità di visione dipende dal cervello, non dall'occhio.
A questo proposito può essere utile studiare il ruolo dei movimenti oculari saccadici e come vengono sfruttati dal cervello per aumentare la risoluzione percepita dell'immagine.
Incidentalmente, mi piacerebbe vedere che qualcuno provi a implementare telecamere con movimenti pseudo-saccadici e la relativa IA per la ricostruzione di immagini ad alta risoluzione.
Quindi mi dispiace, il problema non è delle telecamere, ma dell'IA.
LMCH29 Agosto 2021, 17:25 #58
Originariamente inviato da: pin-head
Perché capita che restituisca dati non coerenti con il feed delle videocamere.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due. Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.

Se usano le videocamere attuali, continueranno ad avere problemi che per un essere umano sono cose ininfluenti.

Le cose cambieranno davvero solo quando si investirà seriamente sulle event camera neuromorfiche.

Per chi non lo sapesse, la retina non è solo un tappeto di coni e bastoncelli sensibili alla luce, ma vi sono più strati di cellule che elaborano e confrontano i dati "grezzi" in modo da operare come il primo stadio di motion detection, misuratori di parallasse, feature detector e filtri anti-disturbo. Questo permette di trasmettere solo "quello che cambia"/"le cose interessanti" e se serve l'immagine "completa" questa viene "ricostruita nel cervello" aggiungendo i dati in arrivo a quelli già inseriti nell'"immagine interna" costruita dal cervello fino a quel momento.
Significa che mentre una videocamera classica collegata su USB2 a 640x640 senza compressione trasmette tirata proprio al massimo intorno a 60fps, una event camera "rozza" come quelle già in circolazione 20 anni fa trasmette l'equivalente di oltre 2000fps sempre sempre sullo stesso scrauso link USB2 ed alleggerendo pure la fase di elaborazione (trasmette solo le "parti interessanti" insieme alle informazioni sul perché sono interessanti).
tallines29 Agosto 2021, 18:15 #59
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: https://auto.hwupgrade.it/news/tecn...orso_99904.html

L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta

Il colmo dei colmi.........
ramses7730 Agosto 2021, 08:55 #60
Originariamente inviato da: tallines
Il colmo dei colmi.........


Quelli che commentano i titoli senza sapere una mazza sono i miei preferiti.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
chiudi «NETWORKAUTO ELETTRICHETECNOLOGIAINFOTAINMENTE-BIKEMOTO ELETTRICHEURBAN MOBILITYENERGIE RINNOVABILI
facebook twitter newsletter rss youtube instagram
Login - Registrati