TeslaFerrari
Botta e risposta con Elon Musk e John Elkann: "una Ferrari a guida autonoma sarebbe triste"
di Massimiliano Zocchi pubblicata il 24 Settembre 2021, alle 17:18 nel canale TecnologiaElon Musk non era presente alla Italian Tech Week, ma ha comunque tenuto una lunga sessione in collegamento remoto. Lui e il Presidente di Stellantis John Elkann erano virtualmente sul palco insieme
148 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoL'AI può fare errori, ma non commettere negligenze, sarebbe un paradosso perché negligenza significa che tu sapevi qual era il comportamento giusto da tenere, ma hai scelto di ignorarlo e fare altrimenti. L'AI se fa una scelta è perché è convinta che sia la scelta giusta, anche se poi non si dovesse rivelare tale.
tutti quando fanno una scelta pensano che sia quella giusta , non è che tranne rari casi le persone volontariamente falciano pedoni , rimane l'errore di valutazione , ed il concetto è semplice chi paga , io che sono il proprietario
o chi ha costruito una macchina difettosa?
P.S. l'assicurazione obbligatoria non è scontata ci sono paesi che gli USA che è una opzione
PS se per evitare un tamponamento finisci su una folla, evidentemente hai infranto un bel po' di regole del CDS a partire dal rispetto della distanza di sicurezza
se ti scoppia una gomma? se si rompono i freni? perndi una buca e perdi il controllo?
o la ia semplicemente (come è successo) scambia una ambulanza per un semaforo?
o la ia semplicemente (come è successo) scambia una ambulanza per un semaforo?
Se capita a un umano?
Si può fare lo stesso?
I danni materiali vengono rimborsati dall'assicurazione del veicolo e i reati verranno discussi in un tribunale che deciderà su eventuali responsabilità penali, se sbandi per colpa di una buca non segnalata, la colpa è dell'ente che ha in carico la strada.
Non capisco il voler cavillare, se poi ci sarà bisogno di nuove leggi, saranno fatte, ne abbiamo centinaia di migliaia.
Ma non è vero, se vado a 80Km/h in città perché tanto la strada è grande e libera dal traffico so benissimo che non è la cosa giusta da fare, ma la faccio lo stesso perché mi conviene.
Non conosco le leggi di ogni Stato del mondo, ma in Italia se presto l'auto a qualcuno e questi provoca un danno è la mia assicurazione che paga, non la sua, la responsabilità civile rimane del proprietario dell'auto anche quando non poteva fare nulla per evitarlo, a parte scegliere di non prestare l'auto. Se non sono assicurato pago di tasca mia. Sono convinto che la colpa sia di un pezzo difettoso dell'auto? Che sia l'impianto frenante o l'AI cambia poco, tento una rivalsa sul produttore, e poi decide il giudice.
Quando tiriamo in ballo l'etica stiamo parlando di reati penali, nel civile è solo questione di chi tira fuori i soldi.
Sono io che ho postato i dati ANIA dove si evince che la maggior parte degli incidenti sono dovuti a cause prettamente umane.
Secondo me ci sono buone probabilità che già oggi un IA faccia meglio (o meno peggio) di un guidatore umano.
Tuttavia non mi piace ragionare da "tifoso".
Il fatto che la mia "squadra" sia quella dell'IA non mi impedisce di osservare che per riuscire ad introdurre la guida totalmente autonoma bisogna superare due problemi.
Il primo è quello dell'accettazione (è a questo che mi riferivo quando dicevo che giustifichiamo il comportamento umano, non certo a deresponsabilizzazione).
Accettiamo che un essere umano possa errare, ma dalle IA si "pretende" la perfezione.
Bastano pochi incidenti "pacchiani" (come quello di non riuscire a riconoscere un veicolo di soccorso fermo e sbatterci contro) per far sì che la guida autonoma non venga accettata dalla società.
Il secondo problema è quello prettamente etico.
Esempio tratto da una pubblicazione sul sito del Ministero dell'Economia e Finanza:
"Rispettare il principio del primum non nocere
(principle of non maleficence).
La realizzazione di tecnologie controllate da sistemi di IA porta con sé una serie di problemi legati al governo dell’autonomia gestionale. Gli artefatti IA hanno la capacità di mutare il loro comportamento in base alle condizioni in cui operano.
Come realizzare un test etico per l’IA
La libertà decisionale deve essere governata da una
artificial moral agent, ovvero una
moralità artificiale nei sistemi di IA.
La regola di base degli artefatti IA rispondenti a tale operatività è quella
di comportarsi in maniera da scegliere sempre il male minore in accordo con l’esperimento ideale circa la situazione del carrello"
(cfr. Philippa Foot & Judith Jarvis)
https://www.mef.gov.it/inevidenza/2...ale_-_SOGEI.pdf
La IA deve mantenere la propria direzione e frenare in caso di ostacolo, se la capacità computazionale lo permette allora può pensare di schivare l'ostacolo senza causare altri incidenti.
Se ho un pedone al centro, auto nell'altro senso di marcia e alberi (o fosso) sulla dx, cerco di schivare ma se risulta impossibile allora devo semplicemente frenare (e quindi investire il pedone). Io non ho il potere per capire quale sarà il male minore (l'auto opposta potrebbe essere di una mamma incinta (e quindi anche senza cinture) e l'albero potrebbe causare l'incendio della mia auto).
tanto ci pensa la RCA a pagare.. chi se ne frega..
e visto che la IA non ha colpe di quello che fa siamo tutti felici e abbiamo depenalizzato il problema e "tutti" hanno la coscienza a posto
motivo per cui ben lungi dall'avere una IA che guida la mia macchina
Se ho un pedone al centro, auto nell'altro senso di marcia e alberi (o fosso) sulla dx, cerco di schivare ma se risulta impossibile allora devo semplicemente frenare (e quindi investire il pedone). Io non ho il potere per capire quale sarà il male minore (l'auto opposta potrebbe essere di una mamma incinta (e quindi anche senza cinture) e l'albero potrebbe causare l'incendio della mia auto).
Semplifichiamo l'esempio e leviamo la possibilità dell'auto nell'altro senso di marcia.
Rimangono le due possibilità: investire il pedone (inerme) o urtare contro un albero (con cinture allacciate ed airbag attivi).
Sicuro che sia il pedone il male minore?
Ma facciamo un esempio più celebre: quello del tram.
Ad un gruppo di persone è stato posto questo quesito:
un tram procede su un binario dove sono state legate cinque persone.
L'autista non ha la possibilità di frenare in tempo, può solo azionare lo scambio per deviare su un altro binario dove però è stata legata un'altra persona; cosa deve fare l'autista?
La maggior parte (già qui c'è diversità di vedute) ha ritenuto moralmente lecito deviare il percorso.
Alle stesse persone è stata poi proposta una variante dello stesso quesito:
il tram è fuori controllo senza nessuno a bordo e sul binario sono legate le 5 persone.
Non c'è nessuno scambio, ma sulla banchina c'è un uomo grasso, talmente grasso che se venisse spinto sui binari farebbe deragliare il tram e salvare le 5 persone.
La maggior parte delle persone ha ritenuto moralmente illecito spingere l'uomo grasso sui binari.
Di questo dilemma ne sono state poste tante altre varianti ed è assolutamente applicabile anche alle IA (se state aspettando il treno vi consiglio di controllare che nelle vicinanze non vi siano robot che possano spingervi sui binari ).
Il problema etico non è un problema matematico che ha una soluzione, ma è un problema morale e come tale necessita di essere affrontato e condiviso perchè la morale non sempre è univoca (anche per il medesimo soggetto).
Se vogliamo che la guida autonoma venga introdotta, non possiamo pretendere che il problema etico venga "risolto" in laboratorio.
Rimangono le due possibilità: investire il pedone (inerme) o urtare contro un albero (con cinture allacciate ed airbag attivi).
Sicuro che sia il pedone il male minore?
Ma facciamo un esempio più celebre: quello del tram.
Ad un gruppo di persone è stato posto questo quesito:
un tram procede su un binario dove sono state legate cinque persone.
L'autista non ha la possibilità di frenare in tempo, può solo azionare lo scambio per deviare su un altro binario dove però è stata legata un'altra persona; cosa deve fare l'autista?
La maggior parte (già qui c'è diversità di vedute) ha ritenuto moralmente lecito deviare il percorso.
Alle stesse persone è stata poi proposta una variante dello stesso quesito:
il tram è fuori controllo senza nessuno a bordo e sul binario sono legate le 5 persone.
Non c'è nessuno scambio, ma sulla banchina c'è un uomo grasso, talmente grasso che se venisse spinto sui binari farebbe deragliare il tram e salvare le 5 persone.
La maggior parte delle persone ha ritenuto moralmente illecito spingere l'uomo grasso sui binari.
Di questo dilemma ne sono state poste tante altre varianti ed è assolutamente applicabile anche alle IA (se state aspettando il treno vi consiglio di controllare che nelle vicinanze non vi siano robot che possano spingervi sui binari ).
Il problema etico non è un problema matematico che ha una soluzione, ma è un problema morale e come tale necessita di essere affrontato e condiviso perchè la morale non sempre è univoca (anche per il medesimo soggetto).
Se vogliamo che la guida autonoma venga introdotta, non possiamo pretendere che il problema etico venga "risolto" in laboratorio.
in effetti chi sta rispondendo a difesa della IA dice che il problema è un non problema.. non va affrontato perchè tanto l'uomo è peggio e quindi il problema non sussiste..
non vogliono decidere perchè è il fato che ha fatto discendere dall'alto dei cieli la AI.. è divina.. Lei non sbaglia perchè è amorale, superiore al banale umano che prende decisioni con cui poi dovrà convivere.. Lei è ... non appare.. prende decisioni insindacabili..
ti ricordi V.I.K.I di Asimov ? "La mia logia è ineccepibile" ... mi pare di vedere la stessa cosa nei testi di chi difende la AI a tutti i costi.. semplicemente non entrano nel dilemma etico perchè a loro non interessa.. l'uomo è di serie B e la AI è divina quindi non si pone il dubbio
l'uomo sbaglia a prescindere la AI decide cosa è giusto
Ma chi lo ha detto? Solo che "responsabilità" non vuol dire nulla.
Responsabilità penale o civile? Perché se parliamo di quella civile, a nessuno frega nulla nel senso che ce ne siamo da tempo liberati delegandola ad un ente terzo.
Se parliamo di responsabilità penale, allora ci sono tutte delle condizioni che devono verificarsi perché questa esista. Non deve esserci per forza, a meno che non sei un forcaiolo per cui a fronte di un danno qualcuno in galera ci deve andare sempre per la tua soddisfazione personale. Sul penale comunque decidono i giudici, se si dovessero rilevare delitti a carico dei produttori di automobili saranno le corti a pronunciarsi.
Rimangono le due possibilità: investire il pedone (inerme) o urtare contro un albero (con cinture allacciate ed airbag attivi).
Sicuro che sia il pedone il male minore?
L'AI non dovrebbe fare scelte di questo tipo, l'AI dovrebbe frenare davanti ad un pericolo e dovrebbe in genere riuscirci perché ha rispettato le norme di sicurezza. Se non ci riesce significa che l'ostacolo è spuntato talmente all'improvviso che era inevitabile. Il problema "albero o pedone" è per quelle persone che vanno a 80Km/h nelle strade urbane.
La gente al bar dopo il terzo aperitivo può dire tutto quello che gli pare, ma non è così che si comporta la nostra società. Nessuno uccide una persona per salvarne non cinque, ma neppure 10.000. L'unico che può mettere la tua vita sul piatto sei tu.
Chi progetta e vende auto non può fare altro che risolvere i problemi in laboratorio, se poi il Legislatore vuol dire la sua è benvenuto.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".