TeslaFerrari
Botta e risposta con Elon Musk e John Elkann: "una Ferrari a guida autonoma sarebbe triste"
di Massimiliano Zocchi pubblicata il 24 Settembre 2021, alle 17:18 nel canale TecnologiaElon Musk non era presente alla Italian Tech Week, ma ha comunque tenuto una lunga sessione in collegamento remoto. Lui e il Presidente di Stellantis John Elkann erano virtualmente sul palco insieme
148 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoInsomma dei cellulari a quattro ruote usa e getta.
E comunque le morti sulla strada sono quisquilie*, rispetto la malasanità: il killer n°1.
*Non per mancanza di rispetto. È solo un aggettivo per rendere l'idea.
Vorrei un'auto a 5 ruote alimentata a succo di carota. Ecco cos'è il libero arbitrio, scegliere di desiderare qualsiasi cosa, non possedere ciò che si desidera.
A casa tua forse, qui la sanità è eccellente, ma il punto è: c'entra qualcosa? Togliamo le ringhiere dai balconi perchè tanto la gente che cadrà sarà meno di quella che ogni anno muore di cancro?
Avrai pure il libero arbitrio, ma anche un po' di buonsenso non guasterebbe.
Mi perdonerà...ma lei riesce a dare una definizione così assolutistica del libero arbitrio...? A mio parere, è ben altra cosa...quindi come può notare la sua può al massimo essere una sua visione e/o valutazione di libero arbitrio, non è certo quella con il punto esclamativo...
l'uomo da una parte migliora e dall'altra trova nuovi modi per distrarsi (mandando in malora i miglioramenti)
ripeto:
secondo te una IA può generare un incidente perchè va di fretta, fuma, beve, gareggia col vicino ecc?
l'uomo lo fa regolarmente e i risultati si vedono
no ma genera incidenti per altri motivi , interpretazione errata della strada,un codice scritto male, la brina su una telecamera, ma sopratutto ora non è in grado proprio di guidare
Continuiamo a fare il funerale oppure a celebrare qualcosa che ancora risulta imperfetto, così come abbiamo fatto noi...anche le macchine si evolvono e si sono evolute ed altrettanto la guida autonoma si evolverà ancora, in funzione soprattutto del fabbisogno di mercato. Ovvio che le case automobilistiche non investono in settori che il consumatore non sia in grado di apprezzare.
Se il mercato richiederà o richiedesse l'implementazione della guida totalmente autonoma, con incentivi come l'abbassamento del premio RC, o modifiche al codice stradale etc..quindi imposte dal sistema, la ricerca si concentrerà sul suo miglioramento sia nel comparto sw sia affinando i componenti Hw usati per abbinare il vantaggio imposto dal suo uso.
Ma non solo per Ferrari ma anche per tutte le auto sportive, posso capire berline ( anche di lusso ) e utilitarie ma un auto / moto sportiva ..... con la guida autonoma smette di esserlo.
Per il resto .... a dire ciò non sarebbe mai dovuto essere Musk, fra tutti gli esponenti dell'automobile proprio il più profano ....
La parola "FERRARI" non dovrebbe proprio nemmeno mai uscire dalla sua bocca nemmeno per dire cose positive.
Ad esempio, i sistemi real-time a task periodici hanno tutta una teoria dietro che ti consentono di essere sicuro che tali task rispetteranno le deadline sotto opportune condizioni. Questo è vero per i sistemi a singolo core. Basta aggiungere un core con bus e cache condivisi e tale teoria non basta più, e "l'aereo cade".
Detto questo, allo stato attuale la guida autonoma e l'IA falliscono miseramente in scenari in cui ci sono "avversari".
È stato dimostrato ad esempio che mettere piccole pecette in punti opportuni sui cartelli stradali, basta a modificarne *sensibilmente* l'interpretazione: ad esempio leggere un limite stradale di 80 quando il cartello indicherebbe 50 km/h.
Queste sono cose difficilmente risolvibili da una IA a meno di non incrociare dati da altre fonti (ad esempio carte stradali e GPS) e anche lì sorgerebbero altri tipi di problemi.
Al momento l'IA è molto più fragile di un essere umano nel riconoscere le cose, perché appunto basta pochissimo per indurla in errore.
Ad esempio, i sistemi real-time a task periodici hanno tutta una teoria dietro che ti consentono di essere sicuro che tali task rispetteranno le deadline sotto opportune condizioni. Questo è vero per i sistemi a singolo core. Basta aggiungere un core con bus e cache condivisi e tale teoria non basta più, e "l'aereo cade".
Detto questo, allo stato attuale la guida autonoma e l'IA falliscono miseramente in scenari in cui ci sono "avversari".
È stato dimostrato ad esempio che mettere piccole pecette in punti opportuni sui cartelli stradali, basta a modificarne *sensibilmente* l'interpretazione: ad esempio leggere un limite stradale di 80 quando il cartello indicherebbe 50 km/h.
Queste sono cose difficilmente risolvibili da una IA a meno di non incrociare dati da altre fonti (ad esempio carte stradali e GPS) e anche lì sorgerebbero altri tipi di problemi.
Al momento l'IA è molto più fragile di un essere umano nel riconoscere le cose, perché appunto basta pochissimo per indurla in errore.
basta vedere i sistemi "i'm not a robot" per la conferma delle autorizzazioni
basta vedere il mega crash finanziario di qualche anno fa durato qualche minuto per colpa di IA finanziarie.. e quelle erano ben più evolute di quelle che guidano visto i dindi che movimentavano
le IA sono molto acerbe tanto che pure Tesla ammette che è una beta.. la vergogna è che siano vendute.. le beta a cui ho partecipato io non le pagavo, mi pagavano per i test.. qua la gente paga per i test e poi difende gli errori.. io non ho mai visto un forum di beta-tester osannare i problemi.. di norma ci si incavola.. mai visto gente felice per una schermata blu di Windows..
il problema è che la gente di domani, che vive oggi, è pigra.. dei morti al volante non interessa niente a nessuno.. quando si fa il paragone con tabagismo, droga e tanti altri problemi si evince subito che il problema delle automobili è irrilevante in confronto ma la gente tira fuori una marea di motivi per cui vale la pena di spendere migliaia di miliardi (vanno ricomprate le auto, distrutte quelle vecchie, devastato il mondo per estrarre le terre per le pile.. vanno costruite nuove centrali etc etc) al posto di mettere due righe in un foglio di carta a divieto delle altre fonti di morte che possono, stando a ISS, OMS, ONU, essere eliminate con estrema facilità ma di cui non frega niente a nessuno.
un morto in auto è mille volte più importante di un morto per fumo stando alla gente che scrive e quindi difendiamo le IA imperfette e i costi di sistema a carico della gente (compra la macchina per legge fra qualche lustro.. non per volontà e continuiamo a lasciar morire la gente per cause più economiche (quello è libero arbitrio.. anche quello del 7% dei morti per fumo passivo e anche i morti in auto per colpa dell'autista drogato.. ma è colpa dell'auto non del pirla che guida e quindi penalizziamo tutti quelli che vogliono guidare per quei 4 gatti drogati..)
è strano ma è un razzismo al contrario..
si è razzisti contro chi vuole guidare la propria auto e si discrimina il morto da automobile dal morto da fumo valorizzando molto meno quest'ultimo nonostante i costi che ha generato volontariamente a tutti..
è una guerra persa.. siamo la minoranza e si sa come va a finire con le minoranze.. la massa li travolge in nome di una ragione superiore..
Un computer deve accettare i tuoi comandi ed il tuo suffragio, un essere umano non è necessariamente costretto ad accettare che tu od altri attendano che gli concedi la tua fiducia.
Solo un essere umano con grande ego si permette il lusso di fossilizzare un altro essere umano in uno spazio tempo infinito, solo per verificarne l'attendibilità e la possibilità di concedergli/le fiducia...un computer manca di quella componente così soffocante come l'ego...fortunatamente.
Perchè se l'essere umano fosse meno egocentrico probabilmente intuirebbe che la fiducia è un processo di dare/avere...non come qualcuno vorrebbe di solo AVERE...(ed anche qui la cosa si fà complessa per i risvolti contabili della definizione), di un computer devi avere automaticamente fiducia, visto che tu stesso sei l'input dei comandi che il computer deve processare per determinare un risultato.
È stato dimostrato ad esempio che mettere piccole pecette in punti opportuni sui cartelli stradali, basta a modificarne *sensibilmente* l'interpretazione: ad esempio leggere un limite stradale di 80 quando il cartello indicherebbe 50 km/h.
Queste sono cose difficilmente risolvibili da una IA a meno di non incrociare dati da altre fonti (ad esempio carte stradali e GPS) e anche lì sorgerebbero altri tipi di problemi.
Come ho già detto..la cosa è più che ovvia..se il sistema della guida autonoma si dovesse diffondere la ns. vetusta segnaletica dovrebbe essere aggiornata e modificata, idem dicasi i sistemi di comunicazione bidirezionale tra veicolo e controllo del traffico, tra veicoli stessi, tra veicoli e gestione dei passaggi pedonali.
Esattamente come qualsiasi essere umano, che non avesse la sensibilità di discernere tra una moltitudine di informazioni diverse egualmente tutte più o meno attendibili
Solo un essere umano con grande ego si permette il lusso di fossilizzare un altro essere umano in uno spazio tempo infinito, solo per verificarne l'attendibilità e la possibilità di concedergli/le fiducia...un computer manca di quella componente così soffocante come l'ego...fortunatamente.
Perchè se l'essere umano fosse meno egocentrico probabilmente intuirebbe che la fiducia è un processo di dare/avere...non come qualcuno vorrebbe di solo AVERE...(ed anche qui la cosa si fà complessa per i risvolti contabili della definizione), di un computer devi avere automaticamente fiducia, visto che tu stesso sei l'input dei comandi che il computer deve processare per determinare un risultato.
Come ho già detto..la cosa è più che ovvia..se il sistema della guida autonoma si dovesse diffondere la ns. vetusta segnaletica dovrebbe essere aggiornata e modificata, idem dicasi i sistemi di comunicazione bidirezionale tra veicolo e controllo del traffico, tra veicoli stessi, tra veicoli e gestione dei passaggi pedonali.
Esattamente come qualsiasi essere umano, che non avesse la sensibilità di discernere tra una moltitudine di informazioni diverse egualmente tutte più o meno attendibili
ottimo, quindi ammetti anche tu che è immatura la IA e che non dovrebbe circolare per strada liberamente visto che un umano nelle medesime condizioni non avrebbe la patente.. ed invece la IA si.. pur non riuscendo a guidare bene.. è non è un foglio rosa visto che molti di quelli che prendono le IA per guidare credono al marketing AUTOPILOT e poi si distraggono dando MOLTA fiducia alla IA incompleta..
qua non è questione di fiducia, non per me almeno, a me piace guidare e quindi non voglio delegare una cosa che mi piace (sennò prendo il treno..)
domani le IA faranno sesso meglio di noi per cui perchè non farlo fare a loro ? :-D (provocazione.. ma da un vecchio articolo di HW pare che il 70% degli umani lo preferirebbe.. )
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".