TeslaFerrari
Botta e risposta con Elon Musk e John Elkann: "una Ferrari a guida autonoma sarebbe triste"
di Massimiliano Zocchi pubblicata il 24 Settembre 2021, alle 17:18 nel canale TecnologiaElon Musk non era presente alla Italian Tech Week, ma ha comunque tenuto una lunga sessione in collegamento remoto. Lui e il Presidente di Stellantis John Elkann erano virtualmente sul palco insieme
148 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoNon è così che funziona l'AI, non c'è un codice del tipo
[CODE]if ( BAMBINO && CANE ) { result = kill(CANE); }[/CODE]
L'AI impara e crea modelli in autonomia che non sono responsabilità del programmatore, il quale gli ha detto solo COME imparare, e non COSA. Nel caso descritto l'AI farebbe una scelta unica perché nessuna condizione iniziale è uguale all'altra, ma la farebbe assegnando dei pesi che hanno già dimostrato statisticamente di funzionare molto bene in quelle situazioni. Su milioni di casi qualche volta prenderà anche sotto il bambino, l'importante è che lo faccia meno rispetto ad un essere umano.
L'esempio può anche non essere perfetto, ma è il concetto che conta.
Non avete mai visto un bambino rincorrere una palla?
Una persona attraversare all'improvviso senza guardare dove non si può ed all'ultimo momento perchè magari è col telefonino?
Oppure attraversare a 20 all'ora col monopattino?
Oppure oppure oppure?
Non è il caso di cavillare su di un esempio, per quanto perfettibile. E' un esempio, serve solo a rappresentare una vastissima casistica più o meno ponderabile.
[CODE]if ( BAMBINO && CANE ) { result = kill(CANE); }[/CODE]
L'AI impara e crea modelli in autonomia che non sono responsabilità del programmatore, il quale gli ha detto solo COME imparare, e non COSA. Nel caso descritto l'AI farebbe una scelta unica perché nessuna condizione iniziale è uguale all'altra, ma la farebbe assegnando dei pesi che hanno già dimostrato statisticamente di funzionare molto bene in quelle situazioni. Su milioni di casi qualche volta prenderà anche sotto il bambino, l'importante è che lo faccia meno rispetto ad un essere umano.
Ovviamente il programmatore non può dire il COSA.
Sarebbe pretendere che preveda tutte le possibile casistiche.
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.
Io credo che questo apra anche un problema di tipo etico oltre che quello prettamente tecnico.
Non avete mai visto un bambino rincorrere una palla?
Una persona attraversare all'improvviso senza guardare dove non si può ed all'ultimo momento perchè magari è col telefonino?
Oppure attraversare a 20 all'ora col monopattino?
Oppure oppure oppure?
Non è il caso di cavillare su di un esempio, per quanto perfettibile. E' un esempio, serve solo a rappresentare una vastissima casistica più o meno ponderabile.
Ovviamente il programmatore non può dire il COSA.
Sarebbe pretendere che preveda tutte le possibile casistiche.
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.
Io credo che questo apra anche un problema di tipo etico oltre che quello prettamente tecnico.
è stato più e più volte dimostrato che le IA imparano in funzione di quello che gli viene fatto "vedere" durante l'insegnamento e quindi faranno quello che hanno "visto" essere la scelta giusta e questa, come detto sopra, dipende da quello che gli è stato insegnato da chi le ha create
fra l'altro è uno dei motivi per cui hanno fatto presente quanto sia importante l'istruzione delle IA per evitare problemi di razzismo nelle IA che esagerano velocemente quello che apprendono.. era anche una notizia qua su HW 1.0 tempo fa.. avevano chiuso un progetto universitario proprio perchè a furia di far vedere immagini di persone bianche la IA era divenuta razzista nei confronti di persone diverse
La domanda che risolve il problema etico è questa: Il programmatore poteva prevedere l'esito di un incidente che secondo la comunità avrebbe dovuto avere un epilogo diverso?
Se la risposta è sì, allora che si intervenga anche a livello legislativo, come quando si impone un limite di età per salire in giostra o si impongono misure di sicurezza diverse per i bambini in auto.
Se la risposta è no, come può qualcuno essere eticamente responsabile di qualcosa che non poteva prevedere?
Se tuttavia è un programmatore a dover decidere a priori cosa debba fare l'auto in un caso del genere (o comunque ad istruire un'IA con dei criteri di scelta), si apre un problema etico.
Il programatore decide con la sue istruzioni chi sacrificare.
Sono d'accordo nel dire che l'IA deve fondamentalmente tutelare la vita del conducente; però le casistiche non sono così "assolute".
Da un lato abbiamo l'investimento di un pedone, che non avendo nessuna forma di protezione è quasi sicuramente destinato alla morte; dall'altro un frontale con un altro veicolo, dove grazie a cinture, airbag, scocche moderne ultra sicure, la morte è solo una eventualità anche se sicuramente non ne esci senza danni fisici.
Cosa deve scegliere il programmatore: morte sicura del "colpevole" pedone o danni fisici con morte solo eventuale del conducente?
E se il pedone fosse (è sempre un esempio, non stiamo a cercare di modificarlo per non affrontare il problema) una madre col bambino e nell'auto un solo occupante? Cosa dovrebbe scegliere l'IA quand'anche fosse ad alto rischio anche la vita della persona a bordo del veicolo?
La sola vita dell'"innocente" a bordo oppure le due vite dei pedoni di cui uno comunque altrettanto "innocente"?
continua ad essere un discorso fuorviante, puramente teorico ed inutile.
ma s'è mai vista a scuola guida una lezione teorica sul "se ti attraversa la strada una donna, un vecchio, un passeggino e un tir nell'altra corsia chi colpisci?"
ma s'è mai visto un incidente in cui al conducente è stato imputato l'errore di investire un bambino anzichè un anziano?
sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento (perchè l'umano, lo ripeto per la centesima volta, farà/farebbe/fa strike per tempi di reazione, distrazione, incapacità ecc. quindi peggio. quindi discorso finito. e lo dicono i numeri)
poi fa proprio ridere la frase sottolineata: qualsiasi decisione umana è giustificata.
quindi giustifichiamo a prescindere un uomo che investe una/due/cinque persone.
però se l'IA in media ne investe un decimo/centesimo/millesimo non va bene perchè poteva scegliere meglio (doveva prenderli tutti per par condicio?).
la logica di sto giochetto mi lascia stupefatto...
peraltro stai palesemente confondendo la giustificazione di un uomo che investe una persona (che non esiste) con la giustificazione di un primo soccorritore laico che tenta una rianimazione (o comunque un primo soccorso) senza successo (che esiste a tutti gli effetti ma non c'entra nulla col caso precedente)
ma s'è mai vista a scuola guida una lezione teorica sul "se ti attraversa la strada una donna, un vecchio, un passeggino e un tir nell'altra corsia chi colpisci?"
ma s'è mai visto un incidente in cui al conducente è stato imputato l'errore di investire un bambino anzichè un anziano?
sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento (perchè l'umano, lo ripeto per la centesima volta, farà/farebbe/fa strike per tempi di reazione, distrazione, incapacità ecc. quindi peggio. quindi discorso finito. e lo dicono i numeri)
poi fa proprio ridere la frase sottolineata: qualsiasi decisione umana è giustificata.
quindi giustifichiamo a prescindere un uomo che investe una/due/cinque persone.
però se l'IA in media ne investe un decimo/centesimo/millesimo non va bene perchè poteva scegliere meglio (doveva prenderli tutti per par condicio?).
la logica di sto giochetto mi lascia stupefatto...
peraltro stai palesemente confondendo la giustificazione di un uomo che investe una persona (che non esiste) con la giustificazione di un primo soccorritore laico che tenta una rianimazione (o comunque un primo soccorso) senza successo (che esiste a tutti gli effetti ma non c'entra nulla col caso precedente)
credo che il concetto e il termine non sia che le decisioni umane sono giustificate ma le decisioni umane sono responsabilizzate
se prendi sotto una due cinque persone vieni giudicato a seconda del motivo per cui è accaduto e, finalmente, rischi il carcere se non ci sono motivi a scusante degli omicidi commessi
mi lascia stupefatto che se l'evento coinvolge un'auto a guida autonoma ci si passi sopra dicendo che l'IA ha fatto il meglio che poteva e pazienza..
se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale
se una IA sbaglia a comprendere la situazione e commette lo stesso 3 omicidi sul marciapiede che succede ? non è colpa di nessuno, è un software le 3 persone sono morte per un errore di valutazione di un coso di silicio, pazienza. chi risarcisce le famiglie ? chi paga per aver ucciso 3 persone ? il proprietario dell'auto che l'ha comprata e dormiva durante il fatto ? (ricordo parliamo di auto a guida autonoma e non di quelle cose di oggi)
paga il sistemista che ha istruito male la AI ?
paga la ditta che ha messo su strada la macchina ?
paga lo stato che ha autorizzato quel veicolo a circolare ?
paga l'assicurazione ?
chi paga i potenziali morti per errori delle AI ?
io credo che il problema non sia quello che vuoi mandare tu in caciara depenalizzando i morti causati dagli umani ma capire come funziona dopo quando inevitabilmente ci sarà un incidente con morto.. vedi le tesla che oggi sbattono contro ai veicoli di soccorso.. (con la complicità di chi non guida ma gioca son il pad oggi..)
la questione forse non è etica.. è terra terra.. oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente
io sono curioso di capire come gestirà questa cosa la legge perchè l'infallibile è su in cielo e qua in terra umani e computer sbagliano.. ma se sbaglia l'uomo "paga" l'uomo.. e di norma se fai un lavoro a computer e lo mandi al cliente e excel ha sbagliato un calcolo è sempre colpa dell'uomo che ci ha lavorato.. ma domani con le AI verrà de-responsabilizzato tutto ?.. la AI non puo' "pagare" è un software.. il programmatore poverino era a 6 mila km dall'incidente e diciamo che è innocente.. la Motorizzazione non sapeva ma gli hanno detto che era una AI infallibile.. lo stato.. non pervenuto.. se ho capito bene finisce così nel futuro prospettato da qualcuno..
non è un problema etico.. non è proprio un problema.. l'AI è meglio!
Ma non penso proprio. La condizione per un reato penale è la colpa, devi aver commesso una negligenza senza la quale il reato non sarebbe stato commesso. Se finisci su quel marciapiede perché era inevitabile il problema torna ad essere di natura civile, e per queste cose c'è un'assicurazione chiamata appunto Responsabilità Civile Auto, che paghiamo obbligatoriamente e che continueremmo a pagare anche con le auto a guida autonoma.
L'AI può fare errori, ma non commettere negligenze, sarebbe un paradosso perché negligenza significa che tu sapevi qual era il comportamento giusto da tenere, ma hai scelto di ignorarlo e fare altrimenti. L'AI se fa una scelta è perché è convinta che sia la scelta giusta, anche se poi non si dovesse rivelare tale.
Una domanda: perché vuoi trovare il colpevole? Per vendicarti?
In un reato penale cerchiamo il colpevole:
- per toglierlo dalla società se è pericoloso, evitare che continui a perpetuare il reato
- per provare ad educarlo, per lo stesso motivo cui sopra
- per creare un deterrente a chi volesse commettere lo stesso crimine
Potresti ottenere le stesse cose se il "reato" fosse commesso da una macchina, posto che si possa parlare di reato commesso da una macchina. Il software puoi ritirarlo se è difettoso, puoi correggerlo, e non ti serve un deterrente per i suoi colleghi, visto che la patch può essere replicata.
E al morto che succede? Di sicuro mandare in galera qualcuno non lo riporta in vita, però la famiglia sarà risarcita dall'assicurazione esattamente come se il conducente fosse stato umano.
Cercare un colpevole da appendere ad un albero a tutti i costi fa parte di uno spirito Cow Boy che non mi appartiene, personalmente sarei molto meno arrabbiato se mio figlio fosse rimasto vittima di un software difettoso e poi corretto, che non ucciso da un ubriaco che dopo 3 anni è di nuovo libero e pericoloso.
se prendi sotto una due cinque persone vieni giudicato a seconda del motivo per cui è accaduto e, finalmente, rischi il carcere se non ci sono motivi a scusante degli omicidi commessi
mi lascia stupefatto che se l'evento coinvolge un'auto a guida autonoma ci si passi sopra dicendo che l'IA ha fatto il meglio che poteva e pazienza..
se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale
se una IA sbaglia a comprendere la situazione e commette lo stesso 3 omicidi sul marciapiede che succede ? non è colpa di nessuno, è un software le 3 persone sono morte per un errore di valutazione di un coso di silicio, pazienza. chi risarcisce le famiglie ? chi paga per aver ucciso 3 persone ? il proprietario dell'auto che l'ha comprata e dormiva durante il fatto ? (ricordo parliamo di auto a guida autonoma e non di quelle cose di oggi)
paga il sistemista che ha istruito male la AI ?
paga la ditta che ha messo su strada la macchina ?
paga lo stato che ha autorizzato quel veicolo a circolare ?
paga l'assicurazione ?
chi paga i potenziali morti per errori delle AI ?
io credo che il problema non sia quello che vuoi mandare tu in caciara depenalizzando i morti causati dagli umani ma capire come funziona dopo quando inevitabilmente ci sarà un incidente con morto.. vedi le tesla che oggi sbattono contro ai veicoli di soccorso.. (con la complicità di chi non guida ma gioca son il pad oggi..)
la questione forse non è etica.. è terra terra.. oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente
io sono curioso di capire come gestirà questa cosa la legge perchè l'infallibile è su in cielo e qua in terra umani e computer sbagliano.. ma se sbaglia l'uomo "paga" l'uomo.. e di norma se fai un lavoro a computer e lo mandi al cliente e excel ha sbagliato un calcolo è sempre colpa dell'uomo che ci ha lavorato.. ma domani con le AI verrà de-responsabilizzato tutto ?.. la AI non puo' "pagare" è un software.. il programmatore poverino era a 6 mila km dall'incidente e diciamo che è innocente.. la Motorizzazione non sapeva ma gli hanno detto che era una AI infallibile.. lo stato.. non pervenuto.. se ho capito bene finisce così nel futuro prospettato da qualcuno..
non è un problema etico.. non è proprio un problema.. l'AI è meglio!
A parte trovare situazioni assurde e improbabili, una ia potrà fare un morto, a quel punto come nel caso di incidente fra umani l'RCA dell'auto risarcirà il danno e la società che ha prodotto il software correggerà l'errore e potrà essere giudicata per stabilire se ci siano state negligenze o colpe o dolo cos'altro vorresti?
PS se per evitare un tamponamento finisci su una folla, evidentemente hai infranto un bel po' di regole del CDS a partire dal rispetto della distanza di sicurezza
Prima di tutto io sono favorevolissimo all'introduzione dell'IA.
Sono io che ho postato i dati ANIA dove si evince che la maggior parte degli incidenti sono dovuti a cause prettamente umane.
Secondo me ci sono buone probabilità che già oggi un IA faccia meglio (o meno peggio) di un guidatore umano.
Tuttavia non mi piace ragionare da "tifoso".
Il fatto che la mia "squadra" sia quella dell'IA non mi impedisce di osservare che per riuscire ad introdurre la guida totalmente autonoma bisogna superare due problemi.
Il primo è quello dell'accettazione (è a questo che mi riferivo quando dicevo che giustifichiamo il comportamento umano, non certo a deresponsabilizzazione).
Accettiamo che un essere umano possa errare, ma dalle IA si "pretende" la perfezione.
Bastano pochi incidenti "pacchiani" (come quello di non riuscire a riconoscere un veicolo di soccorso fermo e sbatterci contro) per far sì che la guida autonoma non venga accettata dalla società.
Il secondo problema è quello prettamente etico.
Esempio tratto da una pubblicazione sul sito del Ministero dell'Economia e Finanza:
"Rispettare il principio del primum non nocere
(principle of non maleficence).
La realizzazione di tecnologie controllate da sistemi di IA porta con sé una serie di problemi legati al governo dell’autonomia gestionale. Gli artefatti IA hanno la capacità di mutare il loro comportamento in base alle condizioni in cui operano.
Come realizzare un test etico per l’IA
La libertà decisionale deve essere governata da una
artificial moral agent, ovvero una
moralità artificiale nei sistemi di IA.
La regola di base degli artefatti IA rispondenti a tale operatività è quella
di comportarsi in maniera da scegliere sempre il male minore in accordo con l’esperimento ideale circa la situazione del carrello"
(cfr. Philippa Foot & Judith Jarvis)
https://www.mef.gov.it/inevidenza/2...ale_-_SOGEI.pdf
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".