Isaac Asimov, auteur célèbre de la science fiction, a énoncé trois lois non moins célèbres, que toute machine soumis à une prise de décision doit respecter en priorité:
1) Sa prise de décision doit optimiser la perte en vie humaine, c’est à dire le moins possible, même au détriment de sa propre existence.
2) Sa prise de décision doit être en accord avec celle que lui ordonne un être humain, sauf si cela va à l’encontre de la première loi.
2) Sa prise de décision doit optimiser ses propres chances de survie, sauf si cela va à l’encontre des deux premières lois.
Une voiture autonome répond bien à la définition de « machine devant faire face à la prise de décision », il est donc intéressant de voir si ces lois peuvent lui être adaptées.
La première loi est évidement indiscutable, une voiture ne va pas écraser un groupe de manifestants qui lui barre la route, sous prétexte qu’elle doit se rendre au bureau pour venir vous chercher!
On peut également se poser la question: doit-elle faire de même avec les animaux? Pour quelles espèces? Le débat reste ouvert….Si il parait raisonnable qu’une voiture s’arrête pour laisser passer un chien qui traverse, cela l’est beaucoup moins si, lancée à pleine vitesse et pas assez de temps pour freiner, la voiture doive choisir de partir dans le décors, et se crasher, pour éviter un moineau posé au milieu de la route…
En ce qui concerne les deuxièmes et troisième lois la réponse est moins évidente sur l’ordre des priorité:
Si un être humain ordonne à la voiture d’aller chercher des pot de yaourt au supermarché du coin (2ème loi) , il parait ridicule que la voiture se mette elle-même en péril (3ème loi), vu sa valeur marchande, pour accomplir cette tâche.
En revanche, si il s’agit d’un camion de pompier devant éteindre un incendie qui menace de brûler un entrepôt de matériaux précieux, cela l’est moins. (Je ne parle pas d’un camion de pompier devant sauver des vies puisque cela fait entrer en compte la première loi).