Le dilemme du tramway ou le problème éthique des voitures autonomes

Tout public Temps de lecture : 3 minutes
Essayez The Flares en illimité : 0€
Le dilemme du tramway ou le problème éthique des voitures autonomes
Téléchargez au format PDF

À mesure que la technologie progresse et que nos routes deviennent le terrain d’expérimentation des voitures autonomes, plusieurs questions se posent. Et notamment sur le plan éthique.

Par exemple, supposons que dans un futur pas très loin, vous êtes assis tranquillement dans votre voiture autonome sur la voie du milieu d’une autoroute 3 voies. La voiture suit un camion qui transporte des bûches de bois, mais soudain c’est la catastrophe. Une bûche se détache et se dirige inexorablement droit sur vous ! Pour corser encore l’affaire, la voie de gauche est occupée par un 4X4 et celle de droite par une moto roulant à côté de vous.

La voiture intelligente doit donc prendre une décision. Soit rester sur la voie et percuter la bûche. Soit tourner à gauche contre le 4X4, ou alors à droite contre la moto. Le problème éthique est donc le suivant : est-ce que la voiture intelligente doit vous garder en vie coûte que coûte en allant percuter la moto, car elle sait que vos chances de survie sont plus grandes ? Où doit-elle minimiser le danger d’autrui en ne faisant rien, même si cela signifie vous mettre en danger contre la bûche ? Ou encore tenter de percuter le 4X4 en se disant que tout le monde peut s’en sortir ?

Que va faire une voiture autonome dans ce cas-là ?

Si un humain était au volant en mode manuel dans cette situation, peu importe le choix qu’il ferait, ce serait un choix sur le vif. Une réaction. Alors qu’une voiture autonome va devoir prendre une décision délibérée. Et si on regarde sa programmation et qu’on découvre qu’il existe une instruction précise à prendre dans ce genre de cas, disons, heurter la moto, alors là, cela ressemble presque à un homicide délibéré …

Bon, il faut dire quand même que les voitures autonomes sont conçues pour réduire drastiquement les accidents en réduisant les erreurs humaines de l’équation. Il y aura également de nombreux bénéfices comme une suppression des embouteillages, une réduction des émissions de CO2, et fini les pertes de temps dû aux trajets et le stress au volant ! Mais des accidents auront toujours lieu, même s’ils seront considérablement moins nombreux. Et l’issue de ces accidents pourrait être déterminée des mois à l’avance par des programmeurs, voir des politiciens et des lois. Et ils auront des décisions très difficiles à prendre. Ça peut paraître simple comme ça, on peut se dire : “Il faut que les voitures autonomes minimisent toutes blessures potentielles”. OK, cool. Du coup, repartons sur l’exemple du haut.

Même voiture, même autoroute, même situation. Sauf que cette fois, le véhicule sur votre gauche est un motocycliste portant un casque, et sur votre droite, un motocycliste sans casque. Que doit faire votre voiture pour “minimiser toutes blessures potentielles” ? Si vous pensez qu’il vaut mieux heurter le motocycliste avec casque, car il a plus de chance de survie, vous pénalisez une personne responsable, qui a choisi de porter un casque. Et si vous pensez qu’il vaut mieux heurter le motocycliste sans casque, car c’est une personne irresponsable, alors là, vous dépassez largement le cadre de la programmation initiale qui est de minimiser toutes blessures potentielles. La voiture devient presque un justicier des rues pénalisant les personnes sans casque !!!

On voit bien le problème éthique dans ce cet exemple. Car dans les deux cas, la décision de la voiture autonome discrimine un des deux individus (avec ou sans casque) et vous, qui êtes tranquillement installé dans la voiture, allez souffrir de ce choix pour le restant de votre vie. Choix que vous n’avez même pas fait. Tout ça à cause d’un algorithme qui sert à minimiser toutes blessures potentielles. Et de toute façon, qui doit décider de ces règles ? Les programmeurs ? Des compagnies ? Les gouvernements ? On peut se demander au final si une réaction humaine sur le vif n’est pas meilleure qu’une décision délibérée visant à réduire le plus de blessures …

Un autre problème éthique. Si je vous demande de choisir entre une voiture autonome programmée pour toujours sauver le plus de personnes possible dans un accident ou une voiture autonome programmée pour toujours vous sauvez vous, peu importe les circonstances. Laquelle allez-vous choisir ?

Ces situations ont bien évidemment très peu de probabilité d’arriver.  C’est un peu comme des expériences de pensée. Et les voitures autonomes vont sauver des dizaines de milliers de vies par an donc il serait dommage de freiner leur développement à cause de législations trop peureuses de ces problèmes éthiques. Néanmoins, il est nécessaire de ne pas oublier les challenges éthiques qui sont toujours engendrés par une nouvelle technologie.

Références :
– www.youtube.com/watch?v=ixIoDYVfKA0&list=PLJicmE8fK0EiEzttYMD1zYkT-SmNf323z&index=125

Rate this post
[contenus_similaires]

Qui est derrière ce contenu ?
  • Auteurs
Rate this post