Tesla

La Tesla fa cilecca e investe un pedone (finto): il video che mette in imbarazzo Musk e colleghi

di pubblicata il , alle 15:41 nel canale Tecnologia La Tesla fa cilecca e investe un pedone (finto): il video che mette in imbarazzo Musk e colleghi

Un video pubblicato su Weibo mostra quanto inaffidabili possono essere i sistemi di frenata assistita. L'auto protagonista in questo caso è la Model 3, ma altri test in passato hanno mostrato come la tecnologia in generale non sia sempre affidabile

 
50 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
etiernal02 Ottobre 2020, 20:47 #21
Originariamente inviato da: 386DX40
Questo e' un punto credo rilevante che gia' avevo accennato in un altra discussione. L' essere umano proprio perche' conosce l'essere umano e lo e' nel contempo egli stesso, puo' fare un veloce "calcolo" sul comportamento della persona che potrebbe (ad es.) barcollare in stato di ebrezza pur camminando o discutere animatamente con un'altra persona e "presumere" che essi cadano dal marciapiede o facciano qualcosa di impensabile e incalcolabile per qualsiasi AI (es. una rissa scattata ipoteticamente tra due senza segnale alcuno occupando la corsia).
Magari l' AI attenderebbe che i propri sensori rilevassero l'avvicinamento dei corpi all'asfalto, la persona umana notando il comportamento anomalo (es. quello che barcolla ubriaco) potrebbe ipoteticamente prevedere l'eventualità che "è meglio stare piu' a sinistra onde evitare che qualcuno mi si butti sotto".
Credo si sottovaluti e anche di molto le capacita' di "preveggenza" se cosi' si puo' chiamare che l'essere umano ha dopo decenni e decenni di esperienza di vita terrena.


Bellissimo commento. Penso tu abbia colto in pieno il problema con "IA" (in virgolette, perché non è IA ovviamente).

2 anni fa, in un Turing Talk un professore da Cambridge (l'inventore del "framework" su cui si basano i vari "remote screen controlling software" aveva presentato dei scenari dove le macchine "autonome" di livello 4/5 avrebbero avuto problemi. Pensate alle rotonde (più complesse) oppure al traffico asiatico dove per muoversi è necessario capire l'intenzione di altri esseri umani.

Tempo fa, discutevo con i miei compagni di corso scenari dove il pedone è sulle strisce pedonali e non capisce se può attraversare o meno, dal momento che ha una macchina ferma sull'incrocio che sta per svoltare verso di lui. Solitamente, il guidatore umano avrebbe lampeggiato le luci o fatto un cenno con la mano. Come farà la macchina a dirgli cosa vuole fare? Come fa il pedone ad essere sicuro che la macchina l'ha visto? Mi ricorda il "dining philosophers problem".

Ritornando alla notizia, devo dire che è scandaloso. Voi altri non capite il problema principale: Tesla si rifiuta di usare sensori come i LiDAR perché dice che sono troppo costosi ecc ecc... Però in scenari del genere i LiDAR sono più che sufficienti per risolvere il problema. Il punto è che Tesla dovrà prima o poi rivolgersi ad una serie di sensori secondari che aiutano i neural network e sono usati come piano B. Vedremo quale strategia utilizza quando sarà a livello 4 o livello 5 di "self-driving".

Quando il pedone viene investito, l'intera strategia di Elon deve essere messa in dubbio. Cavolo, persino la mia macchinetta dotata di LiDAR con algoritmi presi da ROS può evitare i pedoni, giusto per darvi un'idea della relativa semplicità.

La gente dice che è una macchina, e quindi è normale che commetta errori. Non è così semplice. Solitamente, "software correctness" può essere verificato con 100% di "confidence" nell'ambito di "reasoning and verification". Cosa che tra l'altro si fa per le centrali elettriche/nucleari ecc. Come fai a farlo con i neural network o in generale qualsiasi machine learning (ML) model? Boh.

Il problema è anche un'altro: in un software tradizionale, gli errori sono causati da "bug" che possono individuati e risolti. Nell'ambito di ML, è tutta un'altra storia. Non esistono "bug", e non si possono aggiustare gli errori scrivendo ulteriori istruzioni/comandi per la macchina.

Quindi, sì, è un errore e badate che non è un "bug". Il problema è tutta la tecnologia (neural network) su cui Tesla basa il suo famigerato Autopilot.

Lo si può aggiustare? Sì. In due modi: facendo più "training", come hanno suggerito altri utenti, in altre parole, investendo il più alto numero di persone possibili; il secondo modo è partire da capo, riscrivere tutto dall'inizio (io preferisco quest'ultimo, non so voi ).
zappy02 Ottobre 2020, 21:15 #22
Originariamente inviato da: 386DX40
Nel rileggere la poesia...

qualcuno ha colto
zappy02 Ottobre 2020, 21:17 #23
Originariamente inviato da: etiernal
... Voi altri non capite il problema principale: Tesla si rifiuta di usare sensori come i LiDAR ...

ricordami una cosa: Tesla si basa solo su telecamere, giusto?
Bonaparte202 Ottobre 2020, 21:19 #24
Ci sono video di tutte le auto che fanno cilecca, anche molto prima della tesla.
etiernal02 Ottobre 2020, 21:33 #25
Originariamente inviato da: zappy
ricordami una cosa: Tesla si basa solo su telecamere, giusto?


Visto che non hai letto il mio intervento, rispondo alla tua domanda direttamente. Tesla usa i "radar" ma li usa in congiunzione con i neural network. C'è un fusione tra i due. Mentre, il resto delle aziende usa i LiDAR come input di riserva per avere un'idea alternativa del "environment". Questa è la principale differenza!
Ago7202 Ottobre 2020, 23:22 #26
Originariamente inviato da: etiernal
Non è così semplice. Solitamente, "software correctness" può essere verificato con 100% di "confidence" nell'ambito di "reasoning and verification". Cosa che tra l'altro si fa per le centrali elettriche/nucleari ecc. Come fai a farlo con i neural network o in generale qualsiasi machine learning (ML) model? Boh.


La sicurezza funzionale, applicata ad esempio alle centrali elettriche/nucleari, prevede una serie di layer. semplificando moltissimo (ma veramente tanto), abbiamo un layer che controlla il processo (chiamato PCS), con hardware e software "normale". E poi ci sono i vari sistemi di sicurezza. Uno (ESD) che prevede lo spegnimento dell'impianto qualora il processo dovesse diventare pericoloso e/po incontrollabile. Qualore il sistema di spegnimento non riuscisse ad "evitare l'incidente" si attiverebberò i sistemi di contenimento del danno (F&G).


Nel caso della macchina autonoma, avremmo un sistema che guida in modo potenzialmente fallace (IA via ML), in caso di pericolo qualora il sistema a guida autonoma falisse, dovrebbe intervenire un sistema che automaticamente mette in sicurezza la macchina.
Ago7202 Ottobre 2020, 23:25 #27
Delete
Ago7202 Ottobre 2020, 23:26 #28
Delete
nickname8802 Ottobre 2020, 23:46 #29
Originariamente inviato da: blobb
dove hai letto che l'essere umano dopo un tot non apprende e dopo un lasso di tempo degrada???
e dove hai letto che l'IA migliora soltanto??
Un individuo mentalmente normodotato sà benissimo ( non c'è bisogno di spiegargli l'ovvietà ) che l'età che avanza oltre un tot è solo deleterio per le capacità mentali e fisiche dell'essere umano e che quindi non è in grado di migliorarsi continuamente dopo un certo lasso di tempo, e siccome prima o poi crepa .... esiste pure un limite all'esperienza che può accumulare.

E no, l'esperienza e la conoscenza accumulata in vita non si può passare geneticamente al figlio ( nè condividerla con tutta l'umanità ), che dovrà ricominciare il percorso di maturazione e apprendimento daccapo, con strumenti sempre migliori certo ma di fatto non sarà mai in grado di portarsi portare avanti una maturità già raggiunta in precedenza come può fare una macchina.
Non è infatti un caso che la stragrande maggioranza degli errori commessi dalla guida umana son sempre gli stessi.

L'AI non migliora ? Ah certo, il progresso tecnologico adesso è votato al peggioramento.
Senza contare che dovrebbe migliorare anche a livello HW con il tempo, anzichè peggiorare ( e no ... non crepano, non ne sono in grado ), non sono in grado di "dimenticare" e sono in grado di effettuare un backup dei propri progressi e condividerli.

Originariamente inviato da: mgiammarco
Si, per esempio quando mettono in vendita una macchina chiaramente testata poco per vincere il Time to Market....

Dipende, se la "testata poco" è in grado di garantire margini di errori anche pari a quelli medi dell'essere umano in teoria sarebbe già pronta a rimpiazzarlo. L'aver colpito un pedone ora, farà si che l'incidente non si ripeta quantomeno in relazione a queste dinamiche specifiche.
blobb03 Ottobre 2020, 00:33 #30
Originariamente inviato da: nickname88
Un individuo mentalmente normodotato sà benissimo ( non c'è bisogno di spiegargli l'ovvietà ) che l'età che avanza oltre un tot è solo deleterio per le capacità mentali e fisiche dell'essere umano e che quindi non è in grado di migliorarsi continuamente dopo un certo lasso di tempo, e siccome prima o poi crepa .... esiste pure un limite all'esperienza che può accumulare.

E no, l'esperienza e la conoscenza accumulata in vita non si può passare geneticamente al figlio ( nè condividerla con tutta l'umanità ), che dovrà ricominciare il percorso di maturazione e apprendimento daccapo, con strumenti sempre migliori certo ma di fatto non sarà mai in grado di portarsi portare avanti una maturità già raggiunta in precedenza come può fare una macchina.
Non è infatti un caso che la stragrande maggioranza degli errori commessi dalla guida umana son sempre gli stessi.

L'AI non migliora ? Ah certo, il progresso tecnologico adesso è votato al peggioramento.
Senza contare che dovrebbe migliorare anche a livello HW con il tempo, anzichè peggiorare ( e no ... non crepano, non ne sono in grado ), non sono in grado di "dimenticare" e sono in grado di effettuare un backup dei propri progressi e condividerli.


Dipende, se la "testata poco" è in grado di garantire margini di errori anche pari a quelli medi dell'essere umano in teoria sarebbe già pronta a rimpiazzarlo. L'aver colpito un pedone ora, farà si che l'incidente non si ripeta quantomeno in relazione a queste dinamiche specifiche.


allora c'è quella cosa che si chiama scuola , palestra, libri, video , arte, ecc ecc che non fanno nient'altro che trasmettere alle generazioni future, le esperienze, e le conoscenze delle generazioni passate, e questo permette all'umanità di evolversi in continuazione,
la IA come qualsiasi cosa nel mondo si deteriora ed "invecchia" , neanche una stella, è eterna
sei sicuro che l'incidente non può ripetersi??? che ne sai se è un problema di SW o HW ???
se è un errore di progettazione??

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^