Jusqu’où les machines pourront-elles décider à notre place ? share
back to to

Jusqu'où les machines pourront-elles décider à notre place ?

7 avril 2014

Si demain les machines étaient plus morales que nous, devrions-nous les laisser agir à notre place ? C’est l’épineuse question que soumettait Tom Chatfield, penseur du numérique, dans un article publié sur Aeon Magazine. Un problème qui pourrait se poser fréquemment au moment où les voitures sans chauffeur affronteront la route à notre place.

Nous sommes en 2048. Automatiquement conduit au bureau par votre voiture intelligente, vous lisez distraitement vos mails –qui apparaissent directement devant votre rétine- tout en observant le paysage urbain. Soudain, devant vous, un bus d’écoliers fait une embardée et s’arrête au milieu de la route aérienne. En moins de quelques millisecondes, il va falloir choisir et agir : changer de trajectoire et vous précipiter dans le vide ou bien heurter le bus de plein fouet avec le risque de tuer des enfants. Heureusement, votre voiture intelligente a déjà fait ce qu’elle juge être le « bon » choix : vous sacrifier… pour épargner dix jeunes vies.

Dans ce dilemme moral pour lequel votre voiture a tranché, le choix n’est en apparence pas si difficile : une vie vaut moins que dix, surtout s’il s’agit d’enfants, c’est un principe. Mais imaginons maintenant que vous soyez contraint de choisir entre sauver la vie d’un ami, conducteur de la voiture, et épargner celle des écoliers. Accepteriez-vous de tuer cet être cher selon le même raisonnement quantitatif et conséquentialiste ? Dans ce genre de cas –où il faudrait accepter, quelle que soit la décision prise, d’être responsable d’au moins un meurtre-, on préfèrerait peut-être qu’un programme prenne une décision à notre place et assume toutes les responsabilités.

Mais ces cas de figure mortels impliquant une voiture sans chauffeur doivent être pensés : les progrès informatiques sont tels que de multiples constructeurs pourraient un jour commercialiser des voitures « intelligentes », capables de résoudre ce genre de dilemmes moraux à notre place. Devrions-nous alors reconnaître à une machine sa supériorité morale et la laisser « mieux » agir que nous ne le saurions ? Cela reviendrait, affirme l’auteur de l’article, à accepter qu’une machine ait de meilleures capacités rationnelles que nous et donc à se soumettre entièrement à son jugement, quel qu’il soit. Mais une conduite juste est-elle une conduite qui respecte des principes généralistes sans prendre en compte le particulier ? Et peut-on appeler « éthique »  l’action d’entités incapables d’empathie et de nuance ?
 

Que fera la machine lorsque droit et éthique divergent ?

Que l’on se rassure : l’avenir nous réserve sans doute bien d’autres scénarios moins morbides, mais les mêmes questions sont amenées à se poser. Par exemple, que penser de ces logiciels qui décident, dans les prisons américaines, de qui a le droit ou non de sortir en liberté conditionnelle ? Moins spectaculaire mais tout aussi important, cet exemple inspiré d’une mise en garde d’Evgeny Morozov : aux yeux du robot-contrôleur des Lilas, un fraudeur SDF méritera-t-il la même peine en enjambant les tourniquets du métro qu’un autre usager ? Ou la machine pourra-t-elle éventuellement faire preuve de cette autre forme de justice nécessaire qui naît parfois de la compassion ?

Droit, morale et éthique divergeant souvent, la possibilité de frauder dans certains cas d’urgence serait pourtant essentielle pour une ville et une vie harmonieuses – c’est ce qu’explique Patrick Lin, directeur d’un groupe de recherche sur l’éthique des sciences émergentes à l’Université Polytechnique de l’Etat de Californie, dans un passionnant billet sur The Atlantic rempli d’exemples. Nous l’avions interrogé pour qu’il nous en dise plus : c’est parce que les technologies ne s’attaquent pas aux causes des problèmes, que ce genre de question se pose selon lui.

Il faudra en tout cas trancher, affirme Tom Chatfield en citant le philosophe Paul Virilio, car nous ne pouvons intégrer les innovations sans penser aux accidents qu’elles impliquent. De même qu’avec l’électricité vient l’électrocution, on assisterait avec la voiture intelligente à l’étrange naissance de l’accident sans responsable, de l’action sans acteur – ou en tout cas sans humain. Quoi qu’il en soit, ces innovations viendront sans doute alimenter le débat déjà bien nourri dont s’occupe la philosophie morale : est-ce bien juste ?

Et pour lire la passionnante réflexion de Tom Chatfield (en anglais), c’est ici.

Chaque semaine,
recevez les immanquables
par email