Auto a guida autonoma ingannate dai cartelloni pubblicitari: ecco come
di Andrea Bai pubblicata il 19 Ottobre 2020, alle 08:42 nel canale Tecnologia
I cartelloni pubblicitari digitali potrebbero essere sfruttati come veicolo d'attacco per causare incidenti e ingorghi, costringendo le auto a guida autonoma a compiere manovre improvvise
Le attività di sviluppo nell'ambito della guida autonoma hanno compiuto e continuano a compiere significativi passi avanti, ma è innegabile che ci sia ancora molta strada da percorrere (in tutti i sensi!) prima che questa tecnologia possa essere considerata completamente autonoma e con un grado di sicurezza tale da poter essere utilizzata senza che si renda necessaria la supervisione di un conducente umano.
La sperimentazione sul campo di questa tecnologia si è portata dietro qualche episodio spiacevole (il più noto è l'incidente mortale che ha visto coinvolta una donna investita da un'auto a guida autonoma di Uber) e in questa fase l'attenzione è concentrata sulle condizioni metereologiche, sui sistemi di mappatura e su come le auto dovrebbero comportarsi in relazione ad oggetti o situazioni pericolose presenti sulla strada.
Immagini fantasma su un cartellone pubblicitario, e l'auto frena improvvisamente
Un gruppo di ricercatori di sicurezza dell'Università Ben Gurion del Negev ha però condotto un lavoro che ha potuto dimostrare come le auto a guida autonoma potrebbero essere ingannate e indotte a compiere determinate azioni mediante cartelloni pubblicitari "compromessi". I ricercatori le chiamano "immagini fantasma" che l'essere umano potrebbe non rilevare ad occhio nudo e fanno l'esempio di un segnale di stop che può essere creato con luci tremolanti su un cartellone elettronico, causando così un'improvvisa frenata dell'auto.
Si tratterebbe quindi di proiezioni luminose della durata di pochi fotogrammi, ma sufficienti per fare "frenare o sterzare" l'auto, senza che il conducente possa comprendere quale sia stata la causa dell'improvviso comportamento della vettura. I ricercatori hanno eseguito alcune prove con vetture equipaggiate con l'Autopilot di Tesla e con MobileEye. Secondo quanto affermano i ricercatori, un segnale di stop fantasma della durata di 0,42 secondi ha ingannato l'Autopilot di Telsa, mentre per MobileEye è stato sufficiente un segnale della durata di 1/8 di secondo.
Gli esperimenti condotti dai ricercatori dell'Università Ben Gurion sono basati su altre ricerche precedenti che utilizzavano proiezioni di luce di poche frazioni di secondo creando sagome di esseri umani, allo scopo di confondere i veicoli autonomi su strada. Si tratta di test da cui sono emersi risultati simili, ma la possibilità di sfruttare questo comportamento con i cartelloni pubblicitari digitali è una prospettiva più pericolosa dal momento che hacker e criminali potrebbero avere a disposizione con facilità un modo per causare incidenti e ingorghi, con il rischio di mettere in ginocchio un'intera città senza lasciare traccia.
18 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoin effetti che gli hacker prendano controllo dei cartelloni pubblicitari per creare caos è cosa di tutti i giorni. un pò come gli hacker che prendono controllo dei semafori per creare incidenti ovunque tra i guidatori
ah in merito ai cartelloni leggi qui
https://www.rainews.it/dl/rainews/m...f43.html#foto-1
tempo fa ingaggiai ( non ricordo se qui o su tomshw ) una diatriba con un fanatico della guida autonoma e delle mirabolanti promesse del deep learning
e gli feci proprio l'esempio di com'è facile ingannare i sistemi di visione artificiale basati su reti neurali, tanto che ormai è nata una branca che si occupa solo di questo
il succo è sempre lo stesso, ovvero se X1 + X2 + ... + Xn > soglia then fire
il problema è che qualsiasi cosa vada al di sopra di quella soglia, viene ritenuto identico, senza distinzione
è la maledizione dell'aritmetica, cioè 2+3 = 5 e 4+1 = 5 e tu puoi vedere solo il 5!! come fai a sapere da dove viene? com'è stato composto
se 2 + 3 è il segnale di stop effettivo, 4+1 è invece un input farlocco creato da un "neural hacker" per fregare la tua fighissima rete neurale
e ci riesce alla grande!!
Si, concordo!!
...ma il problema rimangono i fanatici della guida autonoma.....
perchè se non la prendi tu, loro sicuramente si!
anche perchè tra strade dissestate, senza striscie o semicancellate, cartelli straladi vecchi, rugginosi, divelti, crivellati o assenti... le auto a guida autonoma hanno vita assai difficile in Italia
Complimenti!!!
Complimenti!!!
ma poi l'autopilot è statisticamente già meglio della guida manuale
https://www.sicurauto.it/news/siste...pilot-nel-2020/
figuriamoci quando ci sarà la guida autonoma (ah la stanno testando da anni diverse aziende, tanto per rassicurare qualcuno sul forum)
https://www.sicurauto.it/news/siste...pilot-nel-2020/
figuriamoci quando ci sarà la guida autonoma (ah la stanno testando da anni diverse aziende, tanto per rassicurare qualcuno sul forum)
Chissà se aprono la radio per vedere chi è che ci parla da dentro?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".