Temps de lecture : 6 minutes

Êtes-vous prêts à traverser devant une voiture autonome ?

Avec la multiplication des capteurs, le développement de la vision par ordinateur et du “big data”, les progrès rapides des dernières années en intelligence artificielle permettent d’envisager une commercialisation des voitures autonomes, dans leur version totalement autonome, d’ici 20281. Nous sommes faces à l’une des applications les plus prometteuses de l’intelligence artificielle : on imagine déjà la fin des embouteillages, les sessions cinéma dans sa voiture, l’accessibilité aux personnes âgées et handicapées, la baisse drastique des accidents, et la liberté de trinquer avant de prendre le volant.

Plusieurs acteurs du marché comme Google, Uber, Tesla, mais aussi PSA ou Renault testent actuellement leur version de la voiture autonome. Mais récemment, la première victime mortelle d’une voiture autonome2 nous a brutalement rappelé que les accidents, même s’ils seront plus rares, se produiront.

La technologie est disponible, certes, mais sommes-nous prêts à conduire, être conduits, et traverser devant des voitures autonomes ? Il est légitime de se demander comment réagira la machine dans le cas où une situation à risque se produit. Intuitivement on imagine qu’un ensemble de règles devront régir la prise de décision, suivant les situations rencontrées. Mais quelles seront ces règles ? Quelles sont vos règles lorsque vous conduisez, et sont-elles les mêmes que celles de votre voisin ? En Amérique ou en Europe ? Jeune ou vieux ? Peut-on réellement avoir une règle pour tout ? Ce sont des questions d’éthique, dont il est urgent de se saisir.


Le dilemme du tramway

Pour bien saisir la difficulté de la question, reprenons le dilemme du tramway, qui fut formulé par la philosophe Philippa Foot en 1967 : un tramway lancé à pleine vitesse menace d’écraser cinq personnes sur la voie. Actionnez-vous le levier d’aiguillage qui permet de ne tuer qu’une seule personne ? La plupart des répondants diront oui sans hésiter, même si cela implique d’”activement” tuer une personne.

 

Une variante du dilemme proposée par la philosophe Judith Jarvis Thomson en 1985 aborde la situation suivante : vous pouvez bloquer le tramway en poussant sur la voie un homme obèse, tuant celui-ci, mais sauvant les autres. Que faites-vous ? La question se complexifie alors avec un choix encore plus “actif” (le fait de pousser, physiquement quelqu’un), et l’introduction de caractéristiques discriminatoires chez la personne à sacrifier. Dans ce cas la plupart des personnes se refuse à agir.

L’exemple du tramway illustre la complexité du sujet. On comprend que l’on juge les actions suivant plusieurs dimensions. Ces jugements et l’importance de chacune de ces dimensions diffèrent selon les individus.

Quelle éthique pour ma voiture ?

Pour étendre la question aux voitures autonomes, commençons par définir ce qu’est l’éthique et ce que cela pourrait signifier dans le cas d’une voiture autonome.

L’éthique est définie comme l’ensemble des principes moraux qui sont à la base de la conduite de quelqu’un3. Selon Wikipedia4, « l’éthique regroupe un ensemble de règles qui se différencient et complètent les règles juridiques. Parce qu’elles intègrent le motif, le mobile des activités humaines et trouvent leur fondement dans

l’intériorité de l’être, les règles éthiques ont un champ d’action différent de celui des règles juridiques : un acte pourra être légal mais non conforme à l’éthique (par exemple l’achat d’un objet fabriqué par un esclave) ; un acte pourra être illégal mais conforme à l’éthique (par exemple l’assistance à un réfugié politique). L’éthique montre le chemin de ce que l’on pourrait faire pour mieux vivre. »

Comment cela se traduit-il avec une situation concrète liée à la conduite autonome ? Prenons un exemple : je me trouve dans une voiture autonome lancée à vive allure. Un groupe de piétons surgit. Le seul moyen de les éviter est de précipiter la voiture contre un poteau. La voiture doit-elle éviter le groupe et précipiter la mort du conducteur (ma mort) ? La décision doit-elle être la même si les piétons n’ont pas emprunté le passage piétons ? S’il y a un bébé dans la voiture ?

Les approches éthiques nous permettent de comprendre comment juger, et pourquoi nous jugeons ainsi. Il existe plusieurs approches éthiques pour juger de la valeur éthique d’un acte :

  1. L’éthique de la vertu juge la valeur éthique à partir de l’intention qui motive l’action. Dans le cas de la voiture autonome, la machine est dénuée d’intention, nous ne pouvons donc invoquer cette approche. Seuls peuvent être jugés l’action elle-même et ses conséquences.
  2. L’éthique déontologique prescrit les principes à suivre, par exemple de ne point tuer. Dans le cadre de la voiture autonome, cette approche ne suffit pas : il surviendra forcément des situations où un choix devra être fait. Toute la difficulté est que le choix doit être envisagé, décidé et programmé en avance. En tant que conducteur humain, nous entretenons un certain flou qui ne sera résolu qu’au cœur de l’action et est modulé par nos réflexes et nos capacités physiques forcément limitées, ainsi que par le contexte. Ici la voiture autonome nous oblige à faire des choix, envisager ces situations que nous préférons ignorer, et les programmer.
  3. Le conséquentialisme paraît être l’approche la mieux adaptée pour orienter comment devrait réagir la machine : on évalue les règles uniquement en fonction des conséquences escomptées. Si l’apprentissage des voitures utilise par exemple une méthode par renforcement basée sur une fonction de coût, on définira les coûts des différents éléments et la voiture prendra une décision basée sur le moindre coût. Plus particulièrement sous l’angle utilitariste, on essaie de maximiser le bien-être du plus grand nombre. La difficulté est de définir ces coûts, c’est-à dire décider quelles conséquences sont les moins graves. En prenant l’hypothèse que la technologie nous permet d’en savoir davantage sur ces individus qui traversent et sur le conducteur de la voiture, on pourrait envisager plusieurs approches, par exemple :
    • Sauver le nombre maximum de vies, quels que soient l’âge, l’état, la profession des individus.
    • Sauver le conducteur car il est cardiologue et sa survie permettra indirectement de sauver d’autres vies.
    • Sauver les occupants de la voiture car il y a un bébé parmi eux et le nombre total d’années sauvées est ainsi supérieur.
    • Sauver le groupe de piétons étudiants, car la société a investi dans leur éducation davantage que dans celle du bébé et du conducteur.

    Un groupe de chercheurs à la Toulouse School of Economics, à l’université de l’Oregon et au MIT a ainsi créé un sondage5 de 13 questions, qui permettent à tous d’exprimer leur choix éthique dans les situations complexes. Mais est-ce aux citoyens de décider de la “valeur” des individus, et ces définitions peuvent-elles être partagées à travers les pays ?/li>

S’il offre une piste de réflexion intéressante, le conséquentialisme strict ne suffit pas : la variante du dilemme du tramway démontre que l’on ne juge pas d’un acte uniquement à partir de ces conséquences strictes. Si les règles programmées dans les voitures autonomes entraînent la mort certaine du conducteur, quand bien même cela entraînera une baisse globale de la mortalité sur les routes, il sera bien difficile de convaincre la majorité d’acheter et conduire ce type de véhicule. De plus, il deviendrait alors possible de précipiter intentionnellement la mort d’une personne en se jetant en groupe sur sa voiture.

Au-delà des questions pratiques soulevées par ces dilemmes, on peut s’interroger sur la pertinence de la démarche : vouloir reproduire un raisonnement éthique chez la machine, c’est prendre le risque de nous fait perdre à terme notre liberté intime de choisir et de raisonner. L’automatisation pose en ce sens la question du rapport à la technique comme « pharmakon », à la fois médicament et poison, comme l’a montré  Bernard Stiegler6.


Les axes de recherche

Pour dépasser ces difficultés, plusieurs groupes de recherche travaillent à proposer des approches innovantes. Un axe de réflexion intéressant est celui du “levier éthique” proposé par Giuseppe Contissa7 de l’université de Bologne. Ce levier permet aux conducteurs d’indiquer a priori son choix entre un mode “égoïste” ou “altruiste” si la situation venait å se présenter. Cette approche a le mérite de redonner le contrôle, donc la responsabilité, au conducteur.

Une autre possibilité serait d’introduire de l’aléatoire. De la même manière que les réflexes ou l’instinct décident parfois d’une situation sans que nous ne le contrôlions vraiment, on donnerait au hasard la possibilité de décider ces situations indécidables.

Ces propositions sont à envisager avec d’autant plus d’intérêt qu’elles permettent d’apporter des réponses individuelles aux dilemmes éthiques présentés, plutôt que de “déléguer” notre conscience éthique aux machines et viser une universalité qui paraît bien difficile à mettre en oeuvre.


Notes et références :

1. voir https://www.pwc.fr/fr/espace-presse/communiques-de-presse/2017/decembre/les-premiers-vehicules-100-autonomes-circuleront-des-2028.html [consulté le 19 juin 2018]↩
2. voir https://www.lci.fr/international/voiture-autonome-accident-mortel-lors-d-un-test-aux-etats-unis-2082176.html [consulté le 19 juin 2018]↩
3. voir https://www.larousse.fr/dictionnaires/francais/éthique/31389 [consulté le 19 juin 2018]↩
4. voir https://fr.wikipedia.org/wiki/Éthique [consulté le 19 juin 2018]↩
5. voir http://moralmachine.mit.edu/ [consulté le 19 juin 2018]↩
6. Bernard Stiegler, La société automatique. 1. L’avenir du travail, Fayard, mars 2015↩
7. voir https://link.springer.com/article/10.1007/s10506-017-9211-z [consulté le 19 juin 2018]↩