Non mi stupirebbe che a livello tecnologico, fra un paio d'anni, le auto a guida autonoma siano più efficienti e sicure di un essere umano. Anzi, forse lo sono già.
L'errore c'è e ci sarà sempre, ma statisticamente sarà meno incidente (sì, volevo fare il gioco di parole
![Mr. Green :-]](./images/smilies/icon_mrgreen.gif)
).
Gli incidenti accorsi fin'ora sono imputabili esclusivamente a Tesla solo nel primo caso, quando il radar del veicolo ha scambiato il segnale di ritorno della fiancata di un tir per quello di un cartello di indicazioni sospeso. E ci si è infilata sotto, con morte del conducente. Si tratta ormai di più di un anno fa, eoni in termini tecnologici. Negli altri casi non è così evidente la dinamica.
L'ultima tragedia (di cui io sono a conoscenza) invece era inevitabile e la responsabilità è della vittima: se attraversi con la bici una strada ad alto scorrimento, al buio, di notte, non c'è guida autonoma che tenga. Le polemiche nacquero perché i log del sistema rivelarono che la pilota era distratta: cosa riprovevole, ma che non avrebbe spostato di una virgola l'epilogo.
Il dibattito è apertissimo invece sotto un altro aspetto, che è quello che davvero sta frenando questo sistema dall'esplodere sul mercato nel prossimo futuro: il dilemma della Moral Machine.
E' molto più una cosa da filosofi che da tecnici, e personalmente vedere questi due aspetti a contatto mi affascina tantissimo.
Il succo è: come si deve comportare la macchina in caso di incidente inevitabile?
Chi deve salvaguardare? L'autista o la persona che sta per essere investita e che se evitata causerebbe la morte del pilota contro un muro?
Voi direte: si salvaguardi l'autista che magari non c'entra niente. Ok. E se ad attraversare la strada senza preavviso ci fosse una mamma con carrozzina e un bambino per mano? E se fosse un gruppo di 10 persone contro una sola sul veicolo?
Bene, il MIT di Boston ha creato una pagina web proprio per questo: indagare come le persone percepiscano queste scelte.
Ci ha fatto un questionario, raccoglie i dati, e li usa a fini scientifici per alimentare la discussione.
La trovate qui:
http://moralmachine.mit.edu/
E' un argomento interessantissimo, in cui la tecnologia sta aspettando una risposta (che forse non c'è) dalla filosofia.