Non, les algorithmes ne sont pas neutres : eux aussi peuvent discriminer share
back to to

Non, les algorithmes ne sont pas neutres : eux aussi peuvent discriminer

13 juillet 2015

Objets connectés, smartphones, moteurs de recherche… Les algorithmes sont omniprésents dans notre quotidien et en viennent à déterminer certaines de nos actions. Mais leur fonctionnement commence tout juste à être questionné, alors même qu’ils peuvent être à l’origine de discriminations. Explications avec le New York Times.

Telles les recettes de nos sodas favoris, les algorithmes relèvent le plus souvent du secret bien gardé en raison de leur valeur économique. Mais plusieurs études montrent que, loin d’être objectifs, les algorithmes reproduisent bien souvent les discriminations humaines (raciales, de genre, etc).

Une recherche de l’Université d’Harvard de 2013 a ainsi montré que lorsque l’on cherche des noms à consonance africaine dans un moteur de recherche, celui-ci affiche plus fréquemment… des dossiers d’arrestation.

Ce qui fait dire à David Oppenheimer, professeur de droit à l’Université de Californie à Berkeley, que si les algorithmes « ne sont pas conçus avec une intention de discrimination, et même s’ils reproduisent les préférences sociales de manière tout à fait rationnelle, ils tendent aussi à reproduire certaines formes de discrimination ».

Un rappel du caractère éminemment politique des algorithmes et de l’attention qui doit être portée aux valeurs lors de leur conception :

« La question qui consiste à déterminer quels préjugés nous ne souhaitons pas tolérer est politique […] Cela requiert beaucoup d’attention et de réflexion lors de la conception de ces systèmes techniques », conclut Deirdre Mulligan, professeur à l’Université de Californie à Berkeley.

Pour plus d’informations, l’article du New York Times est ici.

Chaque semaine,
recevez les immanquables
par email