Etica dei veicoli senza conducente:dovremmo preoccuparci?

Penso di aver evitato questo argomento abbastanza a lungo. I tipi di domande che l'industria deve spesso affrontare sono:in che modo il veicolo deciderà chi uccidere:l'autista o altre persone? E il veicolo avrà le conoscenze per prendere la decisione su quali vite hanno più valore? Il veicolo deve puntare al ciclista con il casco (che è protetto) invece che al ciclista sprovvisto di casco? Ad oggi, la Germania è l'unica agenzia governativa che ha preso posizione su questo argomento. Come affermato in questo articolo, il ministro dei trasporti del paese ha delineato tre regole come punto di partenza per le leggi future:

  1. I danni alla proprietà hanno sempre la precedenza sulle lesioni personali.
  2. Non deve esserci alcuna classificazione delle persone, ad esempio, in base alla loro taglia, età e simili.
  3. Se qualcosa va storto, il produttore è responsabile.

È interessante notare che le case automobilistiche e gli sviluppatori di tecnologia sono piuttosto silenziosi su questo problema. Non sono sorpreso. Credo che i media e gli accademici stiano trasformando questo problema in un problema molto più ampio di quello che è in realtà (vedi alcuni esempi di clamore qui, qui e qui). Quand'è stata l'ultima volta che stavi guidando che hai dovuto prendere la decisione di ucciderti contro qualcun altro? E, se sei nel piccolissimo gruppo di fronte a quella situazione, come hai preso la decisione? C'era ancora tempo per prendere una decisione?

Il MIT ha sviluppato una macchina morale per raccogliere una "prospettiva umana sulle decisioni morali prese dall'intelligenza artificiale, come le auto a guida autonoma". La realtà è che gli sviluppatori che lavorano su veicoli senza conducente stanno perfezionando la tecnologia per affrontare pedoni, ciclisti, maltempo, segnaletica scarsa e cantieri edili... Nonostante queste sfide siano all'ordine del giorno, la nostra società ha posto molta enfasi sulle decisioni morali... è necessario?