Au bout de la personnalisation du web : paradis ou enfer ? (3/3) share
back to to

Au bout de la personnalisation du web : paradis ou enfer ? (3/3)

21 août 2014

Cet été, les algorithmes de recommandation en ligne ont fait couler beaucoup d’encre. Alors que Facebook s’est trouvé victime d’un bad buzz à cause de révélations sur la façon dont fonctionnent les siens, les voix se multiplient pour interroger ces intelligences artificielles qui influencent nos choix sur le web. Dans ce tour d’horizon en trois billets, nous avions d’abord observé notre comportement parfois schizophrénique face aux algorithmes, entre satisfaction d’être chouchoutés par eux (l’effet « Big Mother ») et la peur de Big Brother. Puis nous avons exploré cette contradiction en proposant une explication tirée de l’analyse psychologique de nos interactions avec les intelligences artificielles. Au menu de ce troisième billet : en quoi les algorithmes peuvent-ils transformer notre vision du monde ? Pour le meilleur ou pour le pire ? Le point avec trois (autres) penseurs du numérique.

Des « bulles de filtres » autour de nos opinions

En accédant à un Internet hyper-personnalisé où je retrouve les membres de mon réseau, qui pensent comme moi, et des publicités pour des biens et services sélectionnés pour moi, ne vais-je pas finir, en ligne, à me couper du monde réel dans toute sa diversité ? C’est l’hypothèse que font notamment Eli Pariser, Miriam Meckel et Kate Crawford. Et de ce problème résultent diverses conséquences.

La première, soulignée dès 2010 par Eli Pariser, décrit une société homogène où les internautes ne sortiraient pas de leurs centres d’intérêts. La sélection silencieuse faite par les algorithmes sur les contenus que nous pouvons voir ou non, en fonction de notre profil, crée en effet une « bulle de filtres » autour de chaque individu. Chacun accède ainsi à une version différente d’Internet.

Pour le militant, ce tri automatique est synonyme d’isolement. Parce qu’ils ne montrent à chacun que des choses qui lui plaisent, les algorithmes nous confortent dans nos opinions. Si je suis identifié comme « de gauche », explique-t-il, les réseaux sociaux me montreront de moins en moins les statuts de mes amis « de droite » – jugeant qu’ils ne sont pas pertinents pour moi. C’est ainsi, expliquait Eli Pariser, qu’en tapant « BP » dans un moteur de recherche en 2009, les internautes « de droite » accédaient à un éventail de possibilités pour investir dans la compagnie. Ceux « de gauche » obtenaient d’abord des informations sur la marée noire. Cette évacuation des points de vue contradictoires, selon Eli Pariser, revient à radicaliser les croyances et polarise la société.

 

La mort de la sérendipité ?

La deuxième conséquence de ce phénomène « d’enfermement » sur le web serait de nous éloigner des premiers rêves d’un Internet de l’inattendu. On assisterait ainsi à la mort de la sérendipité, cette capacité qu’avait le web de nous aider à « trouver ce que l’on ne cherche pas en cherchant ce que l’on ne trouve pas ». Et la sagacité de nos perceptions sur le monde en serait réduite.  

On vous en parlait dès 2011, avec la chercheuse Miriam Meckel : le problème des algorithmes de recommandation selon elle, c’est qu’ils sont « pour toujours coincés dans le passé, parce qu’ils basent leurs calculs sur des actions passées » : ils ne laissent aucune place à la nouveauté ou à la découverte. Pourtant nous serions incapables d’apprendre sans sérendipité, l’apprentissage se faisant par la rencontre avec l’imprévu :

« Pour évoluer comme des êtres humains, nous avons besoin de coïncidences et de rencontres avec l’inconnu pour nous inspirer à voir de nouvelles perspectives. C’est la caractéristique même de la démocratie et de l’obligation de chaque citoyen à faire face à des choses qui dépassent son simple point de vue sur le monde pour voir au delà. »

A l’inverse, Miriam Meckel suggère trois approches pour limiter les conséquences de l’hyper-personnalisation du web : d’abord, construire un discours public pour avoir un débat de fond sur la question. Ensuite, promouvoir le doute et l’incertitude pour stimuler la réflexion et l’ouverture… et enfin, s’appuyer sur les « journalistes humains » pour contrebalancer ce phénomène des contenus automatisés – un enjeu qui semble plus que jamais d’actualité, à l’heure où les algorithmes écrivent leurs premiers articles de presse.

La chercheuse n’est pas la seule à alerter sur les conséquences d’un abandon aux intelligences artificielles de nos prises de décision : nous vous parlons régulièrement des inquiétudes de divers spécialistes concernant l’automatisation du monde. Certains alertent sur le danger de laisser les algorithmes faire des choix éthiques (« ma voiture sans chauffeur doit-elle avoir le réflexe de me sacrifier pour épargner deux enfants qui se jetteraient sous ses roues ? »). D’autres se demandent si certaines utilisations que l’on en fait sont bien morales, à l’exemple de cet algorithme qu’on laisse décider de qui doit, ou non, sortir de prison aux Etats-Unis.

 

Un renforcement des inégalités ?

De son côté, la chercheuse à Microsoft Research Kate Crawford donne à ce problème des contours de lutte des classes sur fond d’exclusion sociale : si je suis identifié comme étant de la classe moyenne, plutôt aisé, je verrai sur mon écran des offres de services bancaires qui ne s’afficheront pas sur celui de mon voisin moins fortuné. L’égalité des chances s’en trouverait atteinte, chacun restant, en ligne, dans un véritable « entre soi » avec ses pairs.

Une étude récente semble illustrer cette crainte : dans nos moteurs de recherche, les mots les plus recherchés varient beaucoup d’un lieu à l’autre. Comparez les requêtes populaires dans les riches quartiers pavillonaires à celles des cités défavorisés, et vous obtiendrez un portrait fidèle de ce qui préoccupe au quotidien chaque catégorie de population. D’un côté, on se renseigne sur les problèmes de santé, les régimes amaigrissants, les armes, les jeux vidéo et la religion. De l’autre, on recherche le meilleur appareil photo numérique, des équipements fitness ou de massage pour bébé et des voyages sous les tropiques. 

Bien entendu, les algorithmes de recommandation en ligne ne se basent pas sur votre voisinage pour vous suggérer ce qu’ils pensent vous être utile. Mais bien sur les résultats de vos recherches, et ce prisme par lequel chacun voit le monde pourrait nous enfermer toujours plus, à mesure que la personnalisation du web gagne du terrain. Un exemple ? Prenons une personne angoissée par l’insécurité près de chez elle, qui fait régulièrement des recherches sur les attentats dans son quartier – et sur les meilleures armes pour se défendre. Elle va recevoir ou se voir proposer de plus en plus de contenus liés à cette peur, qui viendront occulter les autres. Jusqu’au point où elle n’aura plus la chance de trouver d’autres informations ?

C’est en tout cas ce qui préoccupe Kate Crawford : tout comme la montée des inégalités fait apparaître, dans nos villes, des ghettos de riches et des quartiers laissés à l’abandon, le cyberespace pourrait ainsi se scinder en deux, « les riches voyant un Internet différent de celui des pauvres ». L’analogie avec l’urbanisme est développée par la chercheuse avec la notion de « data redlining » en référence au redlining, une discrimination pratiquée par certaines entreprises qui renoncent à investir dans des zones perçues comme trop pauvres pour offrir un bon retour sur investissement.

Globalement, les algorithmes soulèvent d’autres questions quant à leur action sur la répartition des richesses. Alors que des intelligences artificielles gèrent déjà directement les marchés financiers, automatisant des millions d’ordres d’achat jusqu’à générer des krachs boursiers, Kevin Slavin s’inquiète : « nous avons perdu le sens de ce qu’il se passe vraiment dans le monde que nous avons nous-même fabriqué », écrivait l’auteur. Provocateur, Jaron Lanier adresse quant à lui ses livres « à la minorité d’humains encore présents » et non aux « algorithmes qui vont disséquer ses pages » pour alerter sur l’urgence de remettre l’Homme au centre de la technologie. En montrant que notre économie, qui repose de plus en plus sur les réseaux n’en est pas mieux distribuée pour autant (d’importants noeuds capteraient toujours plus de richesses, et soumis à des « phénomènes de tourbillons ascendants et descendants », l’argent de plus en plus liquide créerait des inégalités croissantes entre riches et pauvres), il propose de rémunérer nos données personnelles pour « sauver la démocratie ».

  • Au bout de la personnalisation du web : « big mother » ou Big brother ? Pour lire ou relire le premier billet de cette série, c’est par ici ! 

  • Quand les publicités en ligne nous mettent mal à l’aise… retrouvez par là notre second billet sur la personnalisation du web.

Chaque semaine,
recevez les immanquables
par email