Tesla
Nuovo guaio per Autopilot Tesla: sotto indagine per troppi incidenti contro mezzi di soccorso
di Massimiliano Zocchi pubblicata il 17 Agosto 2021, alle 09:32 nel canale Tecnologia
L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infosi ma sarà un pilota con un occhio solo, senza 10/10 e senza occhiali... con un cervello limitato nei ragionamenti ma solo con tanta memoria...
Non sarà che il FSD sbaglia ANCHE perchè ha immagini in input di bassa qualità ?
Per quelle che sono le mie modeste conoscienze della IA, credo che tue stai giungendo a conclusioni errate, partendo da due tematiche/problemi esistenti.
TL,DR
Di seguito una mi modesta spiegazione riferita solo alla computer vision.
Per quanto riguarda la qualità delle immagine c'è da dire che in alcune condizioni le camere sono molto meglio di quanto può fare un uomo. Ma in altre condizioni sono estremamente peggio, come nel caso di maltempo, mezze luci, penombra, luce abbagliante, etc... Quindi nn è sempre un problema di cattiva qualità(4)
Poi cìè il problema del ricoscimento degli oggetti. Come uomini siamo in grado di identificare un camion come concetto(*), mentre l'IA no.
Oggi quello che facciamo è dare in pasto alla IA (Machine learning) migliaia di immagini di un oggetto in diverse situazioni e dirgli che quello in quella immagine c'è l'oggetto X. Dopo di che se la rete neurale è stata addestrata a dovere, cercare i tipici i sotto oggetti X1, X2,.. che compongono l'oggetto X.
Dopo di che la ML potrebbe tentare di riscostruire nello spazio reale l'oggetto X i suoi sotto oggetti (e tutti gli altri oggetti dell'immagine) andando a creare un modello 3D del mondo che lo circonda, con cui a sua volte correggere e aumentare la qualità dell'immagine.
Se questa operazione per l'uomo è istantanea, per l'attuale generazione di IA richiede una potenza computazione e quindi tempo, molto gravosa. Oltre a fallire quando l'immagine acquisita non viene riconosciuta per via di una distanza notevole con il dataset di addestramento. Mentre per l'uomo il potere di astrazione è molto superiore.
[EDIT] Usando il Lidar si avrebberò meno fallimenti, in quanto non si deve riconoscere l'ambiente circostante, per capire le distanze e gli ostacoli o ingombri.
E quì avviene la divisione tra Tesla e gli altri produttori. Essendo questa tecnica gravosa dal punto di vista computazionale, Gli altri usano il Lidar, oltre alle immagini delle telecamere, per ricostruire l'ambiente 3D circostante(2) riducendo la mole di calcoli.
Tesla invece sostiene che sono in grado di sviluppare una IA in grado di fare quanto fatto dall'uomo, senza l'uso del Lidar(3)
PS
Non sono un esperto di IA e di computer vision, quindi ogni correzione a quanto scritto è assolutamente benvenuta, così imparo qualcosa.
(1) In realtà dal punto di vista filosofico la cosa è molto dibattuta
(2) Usano anche la IA
(3) Spero che nel video sopra postato vi siano dettagli su come lo faranno
(4) Cornell researchers have discovered that a simpler method, using two inexpensive cameras on either side of the windshield, can detect objects with nearly LiDAR’s accuracy and at a fraction of the cost
No perchè sono un coione e non ho scrollato in fondo
Grazie, ho visto: i cartelloni sono lontani, per me rafforza i sospetti di scarsa risoluzione delle immagini in input.
I casi sono 2:
o migliorano la percezione tridimensionale in modo da misurare la distanza (ma non credo che basterà
o ci installano delle cam da 100 megapixel, e vedi che le scritte le distingue.
TL,DR
Di seguito una mi modesta spiegazione riferita solo alla computer vision.
CUT
Ho paura che la situazione attuale sia la somma tutto di quello che abbiamo detto.
Più ancora un bel po'
È chiaro che non conosci minimamente l’argomento.
A Tesla Model 3 hit a parked police car in Orlando, driver said she was ‘in Autopilot’
https://www.cnbc.com/2021/08/28/tes...-autopilot.html
Adesso aspettiamo i debunker che recuperano i filmati con le prove,
che il guidatore mente per l'assicurazione,
che è colpa del poliziotto,
che la NHTSA "illecitamente" indaga
ecc
Il numero di coni (sono le cellule che percepiscono il colore) nella retina è di circa 6-7 milioni. Come risoluzione l'occhio umano è paragonabile a una fotocamera con 6-7 Mpixel (ci sono molti più bastoncelli, ma sono utili per la visione notturna con basse intensità di luce). Devi inoltre considerare che la parte centrale dell'occhio (la fovea) non ha cellule per la visione; come se in un sensore ci sia un "buco" in mezzo, molto più grande del notch di un cellulare, ma proprio in mezzo all'immagine: ci pensa poi il cervello a ricostruire cosa probabilmente c'era nell'area non visibile.
La nostra capacità di visione dipende dal cervello, non dall'occhio.
A questo proposito può essere utile studiare il ruolo dei movimenti oculari saccadici e come vengono sfruttati dal cervello per aumentare la risoluzione percepita dell'immagine.
Incidentalmente, mi piacerebbe vedere che qualcuno provi a implementare telecamere con movimenti pseudo-saccadici e la relativa IA per la ricostruzione di immagini ad alta risoluzione.
Quindi mi dispiace, il problema non è delle telecamere, ma dell'IA.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due. Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.
Se usano le videocamere attuali, continueranno ad avere problemi che per un essere umano sono cose ininfluenti.
Le cose cambieranno davvero solo quando si investirà seriamente sulle event camera neuromorfiche.
Per chi non lo sapesse, la retina non è solo un tappeto di coni e bastoncelli sensibili alla luce, ma vi sono più strati di cellule che elaborano e confrontano i dati "grezzi" in modo da operare come il primo stadio di motion detection, misuratori di parallasse, feature detector e filtri anti-disturbo. Questo permette di trasmettere solo "quello che cambia"/"le cose interessanti" e se serve l'immagine "completa" questa viene "ricostruita nel cervello" aggiungendo i dati in arrivo a quelli già inseriti nell'"immagine interna" costruita dal cervello fino a quel momento.
Significa che mentre una videocamera classica collegata su USB2 a 640x640 senza compressione trasmette tirata proprio al massimo intorno a 60fps, una event camera "rozza" come quelle già in circolazione 20 anni fa trasmette l'equivalente di oltre 2000fps sempre sempre sullo stesso scrauso link USB2 ed alleggerendo pure la fase di elaborazione (trasmette solo le "parti interessanti" insieme alle informazioni sul perché sono interessanti).
L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta
Il colmo dei colmi.........
Quelli che commentano i titoli senza sapere una mazza sono i miei preferiti.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".