Etica delle automobili senza conducente

Le auto senza conducente sono in grado di circolare con un elevato grado di sicurezza teorica. Grazie ai loro algoritmi le driverless car possono prevedere l'evoluzione di un pericolo e adottare un comportamento di guida opportuno, riducendo enormemente il rischio degli incidenti stradali, a tutto vantaggio della sicurezza stradale.

esempio di driverless car progettata da Google

Tuttavia, se è vero che la razionalità e i sensori delle Autonomous Vehicles ( AVs ) possono ridurre il rischio di incidente del 90%, almeno un 10% dei sinistri è inevitabile.

Cosa accade quando l'incidente è inevitabile?

Un gruppo di ricercatori del MIT hanno studiato quest'ultimo gruppo di casi e analizzato le situazioni più complesse, quelle in cui il male è inevitabile per qualcuno. In tali circostanze l'auto senza conducente deve prendere una decisione etica che implica comunque delle conseguenze.

Esempio 1. Molti pedoni attraversano la strada improvvisamente, non c'è uno spazio di frenata sufficiente e per evitarli l'automobile deve sterzare a sinistra, colpendo un pedone sul marciapiede e mettendo a rischio la vita del suo passeggero a bordo.

esempio di scelta complessa nella guida automatica

Esempio 2. È una situazione simile alla precedente. In questo caso però non ci sono pedoni sul marciapiede, quindi le conseguenze della sterzata si riducono ai danni fisici ai passeggeri a bordo del veicolo autonomo.

in questo caso l'automobile deve decidere tra i rischi per il passeggero a bordo o per i pedoni in strada

Esempio2. Un pedone attraversa la strada improvvisamente, anche in questo caso l'auto non ha spazio sufficiente per frenare e per evitarlo deve sterzare bruscamente, mettendo a rischio la vita del suo passeggero.

l'automobile deve scegliere tra la vita del pedone o quella del passeggero a bordo

In tutti i casi il veicolo autonomo AV oltre a frenare deve prendere una decisione rapida e complessa, sterzare oppure mantenere la rotta. In entrambi i casi le conseguenze sono inevitabili.

La difficile decisione viene presa dagli algoritmi etici

La rapida diffusione della tecnologia Self Drive rende necessario affrontare queste scelte etiche con algoritmi appositi, detti algoritmi morali. Sono appositamente programmati per decidere cosa fare nelle situazioni complesse.

Ad esempio, i bambini potrebbero essere salvati prima degli adulti o degli anziani, in quanto hanno un'aspettativa di vita maggiore. In alternativa, il veicolo con guida autonoma dovrebbe decidere la scelta che minimizza probabilisticamente il numero dei morti del sinistro, secondo un calcolo utilitaristico e probabilistico molto vicino all'analisi costi-benefici.

le regole da seguire in caso di scelta complessa di guida

Tuttavia, le regole possibili per affrontare una situazione del genere sono veramente molte e questo crea un ulteriore problema, quello delle conseguenze sul piano legale.

Di chi è la responsabilità civile delle conseguenze?

Se la programmazione degli algoritmi morali fosse lasciata alle case automobilistiche si creerebbe una situazione alquanto confusa sul piano giuridico.

In caso di sinistro, chi è responsabile dei danni alle persone? La casa automobilistica che le ha progettate oppure il proprietario dell'automobile che ha acquistato il veicolo?

Al dilemma etico si aggiunge così anche un dilemma giuridico.

La regolamentazione delle scelte etiche tramite protocolli standard

Secondo gli autori dello studio, sarebbe necessario fissare delle regole comuni sulle AVS, una risposta standard fissata per legge alle questioni etiche che possono sorgere su strada.

La regolamentazione tramite dei protocolli etici standard, a cui tutti i produttori dei sistemi di auto-guida devono attenersi, non riduce i dilemmi morali delle scelte e della sicurezza. Tuttavia, queste scelte non sarebbero più una conseguenza della programmazione informatica dei sistemi di intelligenza artificiale da parte dei produttori della tecnologia Self Drive, bensì del legislatore.

Lo studio è stato firmato dai ricercatori Jean-François Bonnefon, Azim Shariff e Iyad Rahwan del MIT di Boston e pubblicato sul MIT Technology Review.

 
 

Segnalami un errore, un refuso o un suggerimento per migliorare gli appunti

FacebookTwitterLinkedinLinkedin