Tesla
La Tesla fa cilecca e investe un pedone (finto): il video che mette in imbarazzo Musk e colleghi
di Nino Grasso pubblicata il 02 Ottobre 2020, alle 15:41 nel canale TecnologiaUn video pubblicato su Weibo mostra quanto inaffidabili possono essere i sistemi di frenata assistita. L'auto protagonista in questo caso è la Model 3, ma altri test in passato hanno mostrato come la tecnologia in generale non sia sempre affidabile
50 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMagari l' AI attenderebbe che i propri sensori rilevassero l'avvicinamento dei corpi all'asfalto, la persona umana notando il comportamento anomalo (es. quello che barcolla ubriaco) potrebbe ipoteticamente prevedere l'eventualità che "è meglio stare piu' a sinistra onde evitare che qualcuno mi si butti sotto".
Credo si sottovaluti e anche di molto le capacita' di "preveggenza" se cosi' si puo' chiamare che l'essere umano ha dopo decenni e decenni di esperienza di vita terrena.
Bellissimo commento. Penso tu abbia colto in pieno il problema con "IA" (in virgolette, perché non è IA ovviamente).
2 anni fa, in un Turing Talk un professore da Cambridge (l'inventore del "framework" su cui si basano i vari "remote screen controlling software" aveva presentato dei scenari dove le macchine "autonome" di livello 4/5 avrebbero avuto problemi. Pensate alle rotonde (più complesse) oppure al traffico asiatico dove per muoversi è necessario capire l'intenzione di altri esseri umani.
Tempo fa, discutevo con i miei compagni di corso scenari dove il pedone è sulle strisce pedonali e non capisce se può attraversare o meno, dal momento che ha una macchina ferma sull'incrocio che sta per svoltare verso di lui. Solitamente, il guidatore umano avrebbe lampeggiato le luci o fatto un cenno con la mano. Come farà la macchina a dirgli cosa vuole fare? Come fa il pedone ad essere sicuro che la macchina l'ha visto? Mi ricorda il "dining philosophers problem".
Ritornando alla notizia, devo dire che è scandaloso. Voi altri non capite il problema principale: Tesla si rifiuta di usare sensori come i LiDAR perché dice che sono troppo costosi ecc ecc... Però in scenari del genere i LiDAR sono più che sufficienti per risolvere il problema. Il punto è che Tesla dovrà prima o poi rivolgersi ad una serie di sensori secondari che aiutano i neural network e sono usati come piano B. Vedremo quale strategia utilizza quando sarà a livello 4 o livello 5 di "self-driving".
Quando il pedone viene investito, l'intera strategia di Elon deve essere messa in dubbio. Cavolo, persino la mia macchinetta dotata di LiDAR con algoritmi presi da ROS può evitare i pedoni, giusto per darvi un'idea della relativa semplicità.
La gente dice che è una macchina, e quindi è normale che commetta errori. Non è così semplice. Solitamente, "software correctness" può essere verificato con 100% di "confidence" nell'ambito di "reasoning and verification". Cosa che tra l'altro si fa per le centrali elettriche/nucleari ecc. Come fai a farlo con i neural network o in generale qualsiasi machine learning (ML) model? Boh.
Il problema è anche un'altro: in un software tradizionale, gli errori sono causati da "bug" che possono individuati e risolti. Nell'ambito di ML, è tutta un'altra storia. Non esistono "bug", e non si possono aggiustare gli errori scrivendo ulteriori istruzioni/comandi per la macchina.
Quindi, sì, è un errore e badate che non è un "bug". Il problema è tutta la tecnologia (neural network) su cui Tesla basa il suo famigerato Autopilot.
Lo si può aggiustare? Sì. In due modi: facendo più "training", come hanno suggerito altri utenti, in altre parole, investendo il più alto numero di persone possibili; il secondo modo è partire da capo, riscrivere tutto dall'inizio (io preferisco quest'ultimo, non so voi ).
qualcuno ha colto
ricordami una cosa: Tesla si basa solo su telecamere, giusto?
Visto che non hai letto il mio intervento, rispondo alla tua domanda direttamente. Tesla usa i "radar" ma li usa in congiunzione con i neural network. C'è un fusione tra i due. Mentre, il resto delle aziende usa i LiDAR come input di riserva per avere un'idea alternativa del "environment". Questa è la principale differenza!
La sicurezza funzionale, applicata ad esempio alle centrali elettriche/nucleari, prevede una serie di layer. semplificando moltissimo (ma veramente tanto), abbiamo un layer che controlla il processo (chiamato PCS), con hardware e software "normale". E poi ci sono i vari sistemi di sicurezza. Uno (ESD) che prevede lo spegnimento dell'impianto qualora il processo dovesse diventare pericoloso e/po incontrollabile. Qualore il sistema di spegnimento non riuscisse ad "evitare l'incidente" si attiverebberò i sistemi di contenimento del danno (F&G).
Nel caso della macchina autonoma, avremmo un sistema che guida in modo potenzialmente fallace (IA via ML), in caso di pericolo qualora il sistema a guida autonoma falisse, dovrebbe intervenire un sistema che automaticamente mette in sicurezza la macchina.
e dove hai letto che l'IA migliora soltanto??
E no, l'esperienza e la conoscenza accumulata in vita non si può passare geneticamente al figlio ( nè condividerla con tutta l'umanità ), che dovrà ricominciare il percorso di maturazione e apprendimento daccapo, con strumenti sempre migliori certo ma di fatto non sarà mai in grado di portarsi portare avanti una maturità già raggiunta in precedenza come può fare una macchina.
Non è infatti un caso che la stragrande maggioranza degli errori commessi dalla guida umana son sempre gli stessi.
L'AI non migliora ? Ah certo, il progresso tecnologico adesso è votato al peggioramento.
Senza contare che dovrebbe migliorare anche a livello HW con il tempo, anzichè peggiorare ( e no ... non crepano, non ne sono in grado ), non sono in grado di "dimenticare" e sono in grado di effettuare un backup dei propri progressi e condividerli.
Dipende, se la "testata poco" è in grado di garantire margini di errori anche pari a quelli medi dell'essere umano in teoria sarebbe già pronta a rimpiazzarlo. L'aver colpito un pedone ora, farà si che l'incidente non si ripeta quantomeno in relazione a queste dinamiche specifiche.
E no, l'esperienza e la conoscenza accumulata in vita non si può passare geneticamente al figlio ( nè condividerla con tutta l'umanità ), che dovrà ricominciare il percorso di maturazione e apprendimento daccapo, con strumenti sempre migliori certo ma di fatto non sarà mai in grado di portarsi portare avanti una maturità già raggiunta in precedenza come può fare una macchina.
Non è infatti un caso che la stragrande maggioranza degli errori commessi dalla guida umana son sempre gli stessi.
L'AI non migliora ? Ah certo, il progresso tecnologico adesso è votato al peggioramento.
Senza contare che dovrebbe migliorare anche a livello HW con il tempo, anzichè peggiorare ( e no ... non crepano, non ne sono in grado ), non sono in grado di "dimenticare" e sono in grado di effettuare un backup dei propri progressi e condividerli.
Dipende, se la "testata poco" è in grado di garantire margini di errori anche pari a quelli medi dell'essere umano in teoria sarebbe già pronta a rimpiazzarlo. L'aver colpito un pedone ora, farà si che l'incidente non si ripeta quantomeno in relazione a queste dinamiche specifiche.
allora c'è quella cosa che si chiama scuola , palestra, libri, video , arte, ecc ecc che non fanno nient'altro che trasmettere alle generazioni future, le esperienze, e le conoscenze delle generazioni passate, e questo permette all'umanità di evolversi in continuazione,
la IA come qualsiasi cosa nel mondo si deteriora ed "invecchia" , neanche una stella, è eterna
sei sicuro che l'incidente non può ripetersi??? che ne sai se è un problema di SW o HW ???
se è un errore di progettazione??
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".