Auto Tesla con Autopilot: bastano tre adesivi per farle scontrare contro altre automobili
di Nino Grasso pubblicata il 02 Aprile 2019, alle 19:21 nel canale TecnologiaL'exploit, se così possiamo definirlo, non è stato sfruttando in casi d'usi reali, ma un gruppo di ricercatori ha dimostrato che Autopilot può essere ingannato sfruttando pochi adesivi
Ricercatori nel campo della cybersicurezza al lavoro per Keen Labs (di Tencent) hanno dichiarato di essere riusciti a ingannare il sistema Autopilot delle auto Tesla costringendolo a dirottare l'autovettura verso un ipotetico traffico in arrivo sull'altra corsia. Il tutto incollando tre piccoli adesivi sul manto stradale. Tesla è intervenuta sin da subito sottolineando che l'exploit non è mai stato sfruttato pubblicamente e ha ringraziato il team di ricercatori per aver scoperto la falla nel sistema di guida assistita.
Keen Labs, apparso già due volte nel programma di caccia al bug di Tesla, ha scritto all'interno di un documento di ricerca pubblicato lo scorso sabato che ha provato nello specifico due metodi diversi per ingannare il sistema di riconoscimento della corsia adottato da Autopilot semplicemente cambiando fisicamente le caratteristiche della superficie stradale.
Il primo metodo, non andato in porto, consisteva nel confondere Autopilot utilizzando delle toppe al fine di rendere meno nette o nascondere le strisce che limitano la corsia di sinistra. Si tratta di un sistema difficile da implementare su strada reale e semplice da riconoscere, sia per eventuali operatori umani sia per i sistemi computerizzati di Tesla: "Non è semplice per gli aggressori installare sistemi non invasivi nel mondo reale per disabilitare la funzione di riconoscimento della corsia installata in un veicolo Tesla", ha dichiarato Keen Labs.
I ricercatori hanno però intuito che le auto Tesla riuscivano a gestire la situazione in maniera appropriata perché i sistemi sono stati addestrati con "linee di corsia anomale" durante le fasi di training. Questo anche per gestire le situazioni di scarsa visibilità, o in presenza di manto stradale bagnato o innevato. Ma cosa succederebbe se il sistema venisse ingannato con linee di corsia in realtà non reali? È questa la domanda che si sono posti i ricercatori di Keen Labs, che hanno provato a tratteggiare tre piccoli segni rettangolari nella corsia come se le due corsie dovessero unirsi in un unico senso di marcia. Così facendo l'auto è stata fattivamente ingannata, provocando una pericolosa sterzata verso la corsia di sinistra dove, in teoria, avrebbe dovuto transitare il traffico nel senso opposto.
Si tratta di un comportamento ancor più pericoloso rispetto al mancato riconoscimento del limite della corsia, fa notare il laboratorio: "Ingannare il veicolo con Autopilot facendogli raggiungere una corsia nel senso opposto con alcuni segni realizzati da un aggressore con finalità malevole può essere più pericoloso che impedirgli il riconoscimento della corsia. Se il veicolo, invece, riuscisse a riconoscere i segnali che vogliono condurlo alla corsia con le auto provenienti nel senso opposto potrebbe facilmente ignorarli ed evitare un grave incidente.
In risposta a quanto rivelato da Keen Labs Tesla ha dichiarato che il problema "non rappresenta qualcosa di riproducibile nel mondo reale", e nessun autista ha verificato o identificato problemi di questa natura: "In questa dimostrazione i ricercatori hanno approntato un ambiente fisico intorno al veicolo per far sì che la macchina si comportasse in maniera diversa rispetto al normale", fa sapere l'azienda americana. "Non è una preoccupazione reale visto che un pilota può bypassare facilmente Autopilot usando lo sterzo o i freni e dovrebbe essere pronto a farlo in ogni momento".
Le scoperte di Keen Labs non sono quindi idonee per la partecipazione al programma "bug-bounty" di Tesla, tuttavia le due realtà rimarranno in contatto al fine di migliorare la sicurezza e l'affidabilità dei sistemi automatizzati dei veicoli con funzionalità di guida autonoma.
14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infohttps://spectrum.ieee.org/cars-that...o-oncoming-lane
Se in una corsia dove fanno i lavori vai di autopilot (non ce l'ho con te) sei un coglione e meriti di estinguerti.
Mi dispiace (sempre e) solo per chi proviene dall'altra carreggiata.
E' già successo. Alcuni ADAS montato su molte marche, arrivavano a leggere gli indicatori di v max degli autocarri/bus e interpretare come cartelli di velocita massima.
Oppure di leggere dei cartelli messi male sulle vie traversali
https://www.quattroruote.it/news/si..._l_accordo.html
è già impensabile che questi dispositivi possano essere infallibili, ma tutto sommato conta il risultato finale: ridurre gli incidenti intervenendo sulla sicurezza attiva, visto che sulla quella passiva più di tanto non si può fare.
Si parla di Autopilot della Tesla, ma facciamo un passo indietro: i sistemi di frenata d'emergenza e mantenimento della distanza e di corsia sono già presenti su molte autovetture in commercio.
Sono molto scettico che possano resistere ai sabotaggi.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".