Les voitures autonomes sont-elles programmées pour tuer ? share
back to to

Les voitures autonomes sont-elles programmées pour tuer ?

26 octobre 2015

Dans la quête vers des voitures autonomes, nous évoquions en juillet dernier le recrutement de plus en plus fréquent de philosophes par les constructeurs automobiles. La MIT Technology Review présente les résultats des premières recherches destinées à éclairer les dilemmes moraux et éthiques posés par ces véhicules.

Minimiser le nombre de morts impliqués dans un accident ou sauver à tout prix la vie des occupants de la voiture ? Alors que les premières voitures (quasi-)autonomes commencent à circuler sur les routes du globe, bien des dilemmes éthiques, pourtant cruciaux, ne sont toujours pas tranchés. Si tant est qu’ils puissent l’être.

L’un des enjeux du marché naissant est bien d’arriver à persuader les conducteurs de l’utilité de tels véhicules. Mais qui achèterait une voiture qui préfère jeter son conducteur dans un ravin quitte à le tuer sur le coup plutôt que percuter ces passants qui ont décidé de franchir la route à la nuit tombée ?

C’est à ce type de questions que tentent de répondre Jean-François Bonnefon et ses collègues de l’Ecole d’économie de Toulouse. Si les résultats de leur enquête sont prévisibles – une grande majorité de personnes souhaitent minimiser le nombre de morts -, elle fait émerger un paradoxe :

« Les gens préfèrent des voitures qui sacrifient la vie du conducteur pour sauver d’autres vies, mais seulement tant qu’ils n’ont pas à les utiliser ».

Autrement dit, la plupart des conducteurs préfèrent avoir leur destin entre leurs mains – et leur volant – plutôt que de s’en remettre à un algorithme. Mais comme le souligne les chercheurs, ces problèmes ne peuvent être ignorés :

« Alors que nous nous préparons à rendre autonome des millions de véhicules, il est urgent de prendre au sérieux la question de la morale algorithmique ».

Pour en savoir plus sur ces recherches, c’est ici.

Chaque semaine,
recevez les immanquables
par email