TeslaFerrari

Botta e risposta con Elon Musk e John Elkann: "una Ferrari a guida autonoma sarebbe triste"

di pubblicata il , alle 17:18 nel canale Tecnologia Botta e risposta con Elon Musk e John Elkann: "una Ferrari a guida autonoma sarebbe triste"

Elon Musk non era presente alla Italian Tech Week, ma ha comunque tenuto una lunga sessione in collegamento remoto. Lui e il Presidente di Stellantis John Elkann erano virtualmente sul palco insieme

 
148 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
mmorselli28 Settembre 2021, 17:59 #121
Originariamente inviato da: baolian
Il programatore decide con la sue istruzioni chi sacrificare.


Non è così che funziona l'AI, non c'è un codice del tipo

[CODE]if ( BAMBINO && CANE ) { result = kill(CANE); }[/CODE]


L'AI impara e crea modelli in autonomia che non sono responsabilità del programmatore, il quale gli ha detto solo COME imparare, e non COSA. Nel caso descritto l'AI farebbe una scelta unica perché nessuna condizione iniziale è uguale all'altra, ma la farebbe assegnando dei pesi che hanno già dimostrato statisticamente di funzionare molto bene in quelle situazioni. Su milioni di casi qualche volta prenderà anche sotto il bambino, l'importante è che lo faccia meno rispetto ad un essere umano.
baolian28 Settembre 2021, 19:05 #122
Originariamente inviato da: the_joe
Scusa eh, ma intanto una macchina a guida autonoma rispetterebbe sempre e comunque il codice della strada che impone di rallentare in presenza di incroci, strisce pedonali, ingombri sulla carreggiata, situazioni di traffico complicate ecc. per cui l'esempio che porti diventerebbe oltremodo improbabile a meno di considerare la volontà di suicidio del pedone.


L'esempio può anche non essere perfetto, ma è il concetto che conta.
Non avete mai visto un bambino rincorrere una palla?
Una persona attraversare all'improvviso senza guardare dove non si può ed all'ultimo momento perchè magari è col telefonino?
Oppure attraversare a 20 all'ora col monopattino?
Oppure oppure oppure?
Non è il caso di cavillare su di un esempio, per quanto perfettibile. E' un esempio, serve solo a rappresentare una vastissima casistica più o meno ponderabile.


Originariamente inviato da: mmorselli
Non è così che funziona l'AI, non c'è un codice del tipo

[CODE]if ( BAMBINO && CANE ) { result = kill(CANE); }[/CODE]


L'AI impara e crea modelli in autonomia che non sono responsabilità del programmatore, il quale gli ha detto solo COME imparare, e non COSA. Nel caso descritto l'AI farebbe una scelta unica perché nessuna condizione iniziale è uguale all'altra, ma la farebbe assegnando dei pesi che hanno già dimostrato statisticamente di funzionare molto bene in quelle situazioni. Su milioni di casi qualche volta prenderà anche sotto il bambino, l'importante è che lo faccia meno rispetto ad un essere umano.


Ovviamente il programmatore non può dire il COSA.
Sarebbe pretendere che preveda tutte le possibile casistiche.
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.
Io credo che questo apra anche un problema di tipo etico oltre che quello prettamente tecnico.
Notturnia28 Settembre 2021, 19:14 #123
Originariamente inviato da: baolian
L'esempio può anche non essere perfetto, ma è il concetto che conta.
Non avete mai visto un bambino rincorrere una palla?
Una persona attraversare all'improvviso senza guardare dove non si può ed all'ultimo momento perchè magari è col telefonino?
Oppure attraversare a 20 all'ora col monopattino?
Oppure oppure oppure?
Non è il caso di cavillare su di un esempio, per quanto perfettibile. E' un esempio, serve solo a rappresentare una vastissima casistica più o meno ponderabile.




Ovviamente il programmatore non può dire il COSA.
Sarebbe pretendere che preveda tutte le possibile casistiche.
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.
Io credo che questo apra anche un problema di tipo etico oltre che quello prettamente tecnico.


è stato più e più volte dimostrato che le IA imparano in funzione di quello che gli viene fatto "vedere" durante l'insegnamento e quindi faranno quello che hanno "visto" essere la scelta giusta e questa, come detto sopra, dipende da quello che gli è stato insegnato da chi le ha create

fra l'altro è uno dei motivi per cui hanno fatto presente quanto sia importante l'istruzione delle IA per evitare problemi di razzismo nelle IA che esagerano velocemente quello che apprendono.. era anche una notizia qua su HW 1.0 tempo fa.. avevano chiuso un progetto universitario proprio perchè a furia di far vedere immagini di persone bianche la IA era divenuta razzista nei confronti di persone diverse
mmorselli28 Settembre 2021, 20:12 #124
Originariamente inviato da: baolian
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.


La domanda che risolve il problema etico è questa: Il programmatore poteva prevedere l'esito di un incidente che secondo la comunità avrebbe dovuto avere un epilogo diverso?

Se la risposta è sì, allora che si intervenga anche a livello legislativo, come quando si impone un limite di età per salire in giostra o si impongono misure di sicurezza diverse per i bambini in auto.

Se la risposta è no, come può qualcuno essere eticamente responsabile di qualcosa che non poteva prevedere?
mrk-cj9429 Settembre 2021, 00:29 #125
Originariamente inviato da: baolian
In casi come quello dell'esempio (non stiamo a questionare su quisquilie; è un esempio!), quando l'incidente è inevitabile, qualunque sia la reazione umana è in qualche modo giustificata.
Se tuttavia è un programmatore a dover decidere a priori cosa debba fare l'auto in un caso del genere (o comunque ad istruire un'IA con dei criteri di scelta), si apre un problema etico.
Il programatore decide con la sue istruzioni chi sacrificare.
Sono d'accordo nel dire che l'IA deve fondamentalmente tutelare la vita del conducente; però le casistiche non sono così "assolute".

Da un lato abbiamo l'investimento di un pedone, che non avendo nessuna forma di protezione è quasi sicuramente destinato alla morte; dall'altro un frontale con un altro veicolo, dove grazie a cinture, airbag, scocche moderne ultra sicure, la morte è solo una eventualità anche se sicuramente non ne esci senza danni fisici.
Cosa deve scegliere il programmatore: morte sicura del "colpevole" pedone o danni fisici con morte solo eventuale del conducente?

E se il pedone fosse (è sempre un esempio, non stiamo a cercare di modificarlo per non affrontare il problema) una madre col bambino e nell'auto un solo occupante? Cosa dovrebbe scegliere l'IA quand'anche fosse ad alto rischio anche la vita della persona a bordo del veicolo?
La sola vita dell'"innocente" a bordo oppure le due vite dei pedoni di cui uno comunque altrettanto "innocente"?


continua ad essere un discorso fuorviante, puramente teorico ed inutile.

ma s'è mai vista a scuola guida una lezione teorica sul "se ti attraversa la strada una donna, un vecchio, un passeggino e un tir nell'altra corsia chi colpisci?"
ma s'è mai visto un incidente in cui al conducente è stato imputato l'errore di investire un bambino anzichè un anziano?

sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento (perchè l'umano, lo ripeto per la centesima volta, farà/farebbe/fa strike per tempi di reazione, distrazione, incapacità ecc. quindi peggio. quindi discorso finito. e lo dicono i numeri)


poi fa proprio ridere la frase sottolineata: qualsiasi decisione umana è giustificata.
quindi giustifichiamo a prescindere un uomo che investe una/due/cinque persone.
però se l'IA in media ne investe un decimo/centesimo/millesimo non va bene perchè poteva scegliere meglio (doveva prenderli tutti per par condicio?).
la logica di sto giochetto mi lascia stupefatto...
peraltro stai palesemente confondendo la giustificazione di un uomo che investe una persona (che non esiste) con la giustificazione di un primo soccorritore laico che tenta una rianimazione (o comunque un primo soccorso) senza successo (che esiste a tutti gli effetti ma non c'entra nulla col caso precedente)
Notturnia29 Settembre 2021, 00:48 #126
Originariamente inviato da: mrk-cj94
continua ad essere un discorso fuorviante, puramente teorico ed inutile.

ma s'è mai vista a scuola guida una lezione teorica sul "se ti attraversa la strada una donna, un vecchio, un passeggino e un tir nell'altra corsia chi colpisci?"
ma s'è mai visto un incidente in cui al conducente è stato imputato l'errore di investire un bambino anzichè un anziano?

sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento (perchè l'umano, lo ripeto per la centesima volta, farà/farebbe/fa strike per tempi di reazione, distrazione, incapacità ecc. quindi peggio. quindi discorso finito. e lo dicono i numeri)


poi fa proprio ridere la frase sottolineata: qualsiasi decisione umana è giustificata.
quindi giustifichiamo a prescindere un uomo che investe una/due/cinque persone.
però se l'IA in media ne investe un decimo/centesimo/millesimo non va bene perchè poteva scegliere meglio (doveva prenderli tutti per par condicio?).
la logica di sto giochetto mi lascia stupefatto...
peraltro stai palesemente confondendo la giustificazione di un uomo che investe una persona (che non esiste) con la giustificazione di un primo soccorritore laico che tenta una rianimazione (o comunque un primo soccorso) senza successo (che esiste a tutti gli effetti ma non c'entra nulla col caso precedente)


credo che il concetto e il termine non sia che le decisioni umane sono giustificate ma le decisioni umane sono responsabilizzate

se prendi sotto una due cinque persone vieni giudicato a seconda del motivo per cui è accaduto e, finalmente, rischi il carcere se non ci sono motivi a scusante degli omicidi commessi

mi lascia stupefatto che se l'evento coinvolge un'auto a guida autonoma ci si passi sopra dicendo che l'IA ha fatto il meglio che poteva e pazienza..

se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale

se una IA sbaglia a comprendere la situazione e commette lo stesso 3 omicidi sul marciapiede che succede ? non è colpa di nessuno, è un software le 3 persone sono morte per un errore di valutazione di un coso di silicio, pazienza. chi risarcisce le famiglie ? chi paga per aver ucciso 3 persone ? il proprietario dell'auto che l'ha comprata e dormiva durante il fatto ? (ricordo parliamo di auto a guida autonoma e non di quelle cose di oggi)
paga il sistemista che ha istruito male la AI ?
paga la ditta che ha messo su strada la macchina ?
paga lo stato che ha autorizzato quel veicolo a circolare ?
paga l'assicurazione ?

chi paga i potenziali morti per errori delle AI ?

io credo che il problema non sia quello che vuoi mandare tu in caciara depenalizzando i morti causati dagli umani ma capire come funziona dopo quando inevitabilmente ci sarà un incidente con morto.. vedi le tesla che oggi sbattono contro ai veicoli di soccorso.. (con la complicità di chi non guida ma gioca son il pad oggi..)

la questione forse non è etica.. è terra terra.. oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente

io sono curioso di capire come gestirà questa cosa la legge perchè l'infallibile è su in cielo e qua in terra umani e computer sbagliano.. ma se sbaglia l'uomo "paga" l'uomo.. e di norma se fai un lavoro a computer e lo mandi al cliente e excel ha sbagliato un calcolo è sempre colpa dell'uomo che ci ha lavorato.. ma domani con le AI verrà de-responsabilizzato tutto ?.. la AI non puo' "pagare" è un software.. il programmatore poverino era a 6 mila km dall'incidente e diciamo che è innocente.. la Motorizzazione non sapeva ma gli hanno detto che era una AI infallibile.. lo stato.. non pervenuto.. se ho capito bene finisce così nel futuro prospettato da qualcuno..

non è un problema etico.. non è proprio un problema.. l'AI è meglio!
mmorselli29 Settembre 2021, 02:05 #127
Originariamente inviato da: Notturnia
se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale


Ma non penso proprio. La condizione per un reato penale è la colpa, devi aver commesso una negligenza senza la quale il reato non sarebbe stato commesso. Se finisci su quel marciapiede perché era inevitabile il problema torna ad essere di natura civile, e per queste cose c'è un'assicurazione chiamata appunto Responsabilità Civile Auto, che paghiamo obbligatoriamente e che continueremmo a pagare anche con le auto a guida autonoma.

L'AI può fare errori, ma non commettere negligenze, sarebbe un paradosso perché negligenza significa che tu sapevi qual era il comportamento giusto da tenere, ma hai scelto di ignorarlo e fare altrimenti. L'AI se fa una scelta è perché è convinta che sia la scelta giusta, anche se poi non si dovesse rivelare tale.
mmorselli29 Settembre 2021, 02:24 #128
Originariamente inviato da: Notturnia
oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente


Una domanda: perché vuoi trovare il colpevole? Per vendicarti?

In un reato penale cerchiamo il colpevole:

- per toglierlo dalla società se è pericoloso, evitare che continui a perpetuare il reato
- per provare ad educarlo, per lo stesso motivo cui sopra
- per creare un deterrente a chi volesse commettere lo stesso crimine

Potresti ottenere le stesse cose se il "reato" fosse commesso da una macchina, posto che si possa parlare di reato commesso da una macchina. Il software puoi ritirarlo se è difettoso, puoi correggerlo, e non ti serve un deterrente per i suoi colleghi, visto che la patch può essere replicata.

E al morto che succede? Di sicuro mandare in galera qualcuno non lo riporta in vita, però la famiglia sarà risarcita dall'assicurazione esattamente come se il conducente fosse stato umano.

Cercare un colpevole da appendere ad un albero a tutti i costi fa parte di uno spirito Cow Boy che non mi appartiene, personalmente sarei molto meno arrabbiato se mio figlio fosse rimasto vittima di un software difettoso e poi corretto, che non ucciso da un ubriaco che dopo 3 anni è di nuovo libero e pericoloso.
the_joe29 Settembre 2021, 07:02 #129
Originariamente inviato da: Notturnia
credo che il concetto e il termine non sia che le decisioni umane sono giustificate ma le decisioni umane sono responsabilizzate

se prendi sotto una due cinque persone vieni giudicato a seconda del motivo per cui è accaduto e, finalmente, rischi il carcere se non ci sono motivi a scusante degli omicidi commessi

mi lascia stupefatto che se l'evento coinvolge un'auto a guida autonoma ci si passi sopra dicendo che l'IA ha fatto il meglio che poteva e pazienza..

se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale

se una IA sbaglia a comprendere la situazione e commette lo stesso 3 omicidi sul marciapiede che succede ? non è colpa di nessuno, è un software le 3 persone sono morte per un errore di valutazione di un coso di silicio, pazienza. chi risarcisce le famiglie ? chi paga per aver ucciso 3 persone ? il proprietario dell'auto che l'ha comprata e dormiva durante il fatto ? (ricordo parliamo di auto a guida autonoma e non di quelle cose di oggi)
paga il sistemista che ha istruito male la AI ?
paga la ditta che ha messo su strada la macchina ?
paga lo stato che ha autorizzato quel veicolo a circolare ?
paga l'assicurazione ?

chi paga i potenziali morti per errori delle AI ?

io credo che il problema non sia quello che vuoi mandare tu in caciara depenalizzando i morti causati dagli umani ma capire come funziona dopo quando inevitabilmente ci sarà un incidente con morto.. vedi le tesla che oggi sbattono contro ai veicoli di soccorso.. (con la complicità di chi non guida ma gioca son il pad oggi..)

la questione forse non è etica.. è terra terra.. oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente

io sono curioso di capire come gestirà questa cosa la legge perchè l'infallibile è su in cielo e qua in terra umani e computer sbagliano.. ma se sbaglia l'uomo "paga" l'uomo.. e di norma se fai un lavoro a computer e lo mandi al cliente e excel ha sbagliato un calcolo è sempre colpa dell'uomo che ci ha lavorato.. ma domani con le AI verrà de-responsabilizzato tutto ?.. la AI non puo' "pagare" è un software.. il programmatore poverino era a 6 mila km dall'incidente e diciamo che è innocente.. la Motorizzazione non sapeva ma gli hanno detto che era una AI infallibile.. lo stato.. non pervenuto.. se ho capito bene finisce così nel futuro prospettato da qualcuno..

non è un problema etico.. non è proprio un problema.. l'AI è meglio!


A parte trovare situazioni assurde e improbabili, una ia potrà fare un morto, a quel punto come nel caso di incidente fra umani l'RCA dell'auto risarcirà il danno e la società che ha prodotto il software correggerà l'errore e potrà essere giudicata per stabilire se ci siano state negligenze o colpe o dolo cos'altro vorresti?

PS se per evitare un tamponamento finisci su una folla, evidentemente hai infranto un bel po' di regole del CDS a partire dal rispetto della distanza di sicurezza
baolian29 Settembre 2021, 07:56 #130
Originariamente inviato da: mrk-cj94
sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento




Prima di tutto io sono favorevolissimo all'introduzione dell'IA.
Sono io che ho postato i dati ANIA dove si evince che la maggior parte degli incidenti sono dovuti a cause prettamente umane.
Secondo me ci sono buone probabilità che già oggi un IA faccia meglio (o meno peggio) di un guidatore umano.
Tuttavia non mi piace ragionare da "tifoso".
Il fatto che la mia "squadra" sia quella dell'IA non mi impedisce di osservare che per riuscire ad introdurre la guida totalmente autonoma bisogna superare due problemi.
Il primo è quello dell'accettazione (è a questo che mi riferivo quando dicevo che giustifichiamo il comportamento umano, non certo a deresponsabilizzazione).
Accettiamo che un essere umano possa errare, ma dalle IA si "pretende" la perfezione.
Bastano pochi incidenti "pacchiani" (come quello di non riuscire a riconoscere un veicolo di soccorso fermo e sbatterci contro) per far sì che la guida autonoma non venga accettata dalla società.

Il secondo problema è quello prettamente etico.

Esempio tratto da una pubblicazione sul sito del Ministero dell'Economia e Finanza:

"Rispettare il principio del primum non nocere
(principle of non maleficence).
La realizzazione di tecnologie controllate da sistemi di IA porta con sé una serie di problemi legati al governo dell’autonomia gestionale. Gli artefatti IA hanno la capacità di mutare il loro comportamento in base alle condizioni in cui operano.
Come realizzare un test etico per l’IA
La libertà decisionale deve essere governata da una
artificial moral agent, ovvero una
moralità artificiale nei sistemi di IA.
La regola di base degli artefatti IA rispondenti a tale operatività è quella
di comportarsi in maniera da scegliere sempre il male minore in accordo con l’esperimento ideale circa la situazione del carrello"
(cfr. Philippa Foot & Judith Jarvis)

https://www.mef.gov.it/inevidenza/2...ale_-_SOGEI.pdf

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^