Au bout de la personnalisation du web : « big mother » ou big brother? (1/3) share
back to to

Au bout de la personnalisation du web : "big mother" ou big brother? (1/3)

18 août 2014

Cet été, les algorithmes de recommandation en ligne ont fait couler beaucoup d’encre. Alors que Facebook s’est trouvé victime d’un bad buzz à cause de révélations sur la façon dont fonctionnent les siens, les voix se multiplient pour interroger ces intelligences artificielles qui influencent nos choix sur le web, et souligner notre ambivalence vis-à-vis d’elles – entre coopération enthousiaste et méfiance inquiète. Petit tour d’horizon, en trois étapes.

La personnalisation du web. De quoi s’agit-il ? 

Le web aujourd’hui, c’est un peu le miroir de la Reine dans Blanche Neige : il ne vous montre pas tant une image fiable de la réalité, que ce que vous avez envie d’y voir. Sur votre moteur de recherche ou votre réseau social préféré, ne vous a-t-on jamais proposé un produit ou un service qui semblait correspondre parfaitement à vos aspirations du moment ? C’est ce qu’on appelle la personnalisation du web : un nombre croissant de services web et d’applications mobiles utilisent des algorithmes pour trier, selon vos goûts où vos habitudes, les résultats de vos recherches ou les statuts de vos amis. Comment ils vous connaissent ? Mais par vos données personnelles, bien sûr : historiques de navigation, géolocalisation, cookies, informations publiques sur les réseaux sociaux… toute information est bonne à prendre pour vous faire apprécier le temps passé en ligne et vous faire revenir le plus souvent possible. 

Le principal moteur de la personnalisation est bien entendu le marketing : l’utilisation de nos données personnelles sert à s’assurer que les publicités sont bien ciblées – c’est à dire qu’elles délivrent le bon message au bon moment. Les cookies et autres « témoins numériques » font ainsi vivre l’industrie de la publicité en ligne au service des marques – une industrie qui affichait un chiffre d’affaires de 102 milliards de dollars en 2013.

Pour gérer l’énorme masse de données que nous produisons désormais sur nous-mêmes, des sociétés se sont spécialisées dans leur traitement – Criteo, par exemple, analyse jusqu’à 20 teraoctets de données par jour pour toucher 850 millions d’internautes par mois. Chacun de nos clics génère sur nous une base de données qui vaut de l’or, car elle dresse une typologie bien précise de nos habitudes. Un fichier de mille personnes contenant des données de base est ainsi vendu 60 centimes en moyenne, mais le prix peut grimper jusqu’à 250 euros pour des profils détaillés. Vendus par des « courtiers en données », ces listes servent surtout à faire du conseil sur des placements publicitaires et qualifier les recommandations sur les réseaux sociaux.

Les internautes entre opposition et complicité

Les consommateurs ont un comportement ambigu vis-à-vis de leurs données personnelles et des algorithmes de recommandation. La plupart du temps, le sujet les intéresse peu. Dans une tribune que nous avons traduite, l’ethnographe et chercheuse chez Microsoft Research explique : 

« Les gens ont une idée abstraite de la façon dont cela fonctionne, mais ils ne le savent pas exactement, et ne veulent pas vraiment savoir. Ils veulent juste que le hot-dog soit bon (que le service web soit utile et agréable, ndlr) ».

Souvent, l’intérêt du consommateur moyen n’est piqué que lorsqu’un algorithme lui fait une recommandation étrange… de celles qu’on ne ferait pas sans être bien informé. Dès lors, la question qui émerge est : « comment ce service web sait-il cela de moi ? ». Et arrivent des préoccupations sur la protection de la vie privée.

Fidèles aux usages et pratiques du détournement au cœur de la culture web, les « geeks » ont quant à eux une pratique assez longue, déjà, du corps à corps avec les algorithmes. Chris Baker, ancien de BuzzFeed s’est ainsi fait remarquer en proposant de bloquer tous les postes dérangeants dans nos flux d’actualité sur Facebook et Twitter. Destinée aux utilisateurs qui en ont assez de voir leurs amis poster des photos de leurs jeunes enfants, son application Unbaby.me filtrait les photos de bébés dans le flux et les transformait en chats – une blague qui a réuni plus de 230.000 utilisateurs et sensibilisé l’opinion à la gestion des contenus qui nous sont présentés chaque jour sur Internet. Plus récemment, le journaliste Caleb Garling testait le fonctionnement de l’algorithme de Facebook en postant sur son compte le message suivant :

« Salut tout le monde, bonne nouvelle ! J’ai accepté un nouveau job qui consiste à faire croire à Facebook que ceci est un statut important au sujet de ma vie ! Je suis tout excité de commencer cette expérience sur la façon dont les algorithmes de Facebook traitent le langage, et je compte sur votre soutien ! »

Bien entendu le message est devenu en quelques heures un immense succès, gagnant des dizaines d’interactions, et les amis de Caleb Garling lui ont signalé que sa publication était au sommet de leur mur. Un succès que le journaliste explique ainsi :

« Les likes, les commentaires, le nombre de personnes qui les ont émis, ce qu’ils ont dit, la vitesse, le moment, mon profil : tout cela, d’une certaine façon, a joué un rôle. La vraie réponse, bien sûr, est l’algorithme. Il a écrit dans un tableau sauvage des chiffres, des symboles et du langage informatique que seule une poignée d’employés de Facebook comprennent. Et alors que je regardais mon faux statut décoller, je sentais combien cette combinaison de chiffres et de signaux et de gens commençait à ressembler à un réseau géant de neurones interconnectés, comme une IRM dynamique d’un cerveau humain lorsque la personne joue aux échecs ou a des relations sexuelles ».

Sans pouvoir l’affirmer avec certitude (parce que « le code logiciel est sous clé » et que « les entreprises technologiques ne partagent pas leur sauce secrète »), Caleb Garling fera ainsi les suppositions suivantes :

« Quand j’ai généré un signal dans la barre de statut – les yeux et les oreilles de Facebook – son traitement du langage a vraisemblablement évalué la teneur de mes mots et les a rapidement signalés comme potentiellement viraux. Ce signal a été transmis à un petit groupe-test d’utilisateurs de Facebook, dont le cerveau leur a dit qu’ils aimaient le statut et ont cliqué en conséquence. Facebook a suivi leurs clics et, à son tour, a décidé de remonter le stimulus à davantage d’utilisateurs. Cela s’est passé plusieurs fois et, après un certain seuil de validation, le statut a été consolidé au sommet de nombreux murs Facebook comme étant l’un des événements phares de la journée ».

Face à l’opacité des algorithmes, la troisième catégorie de réactions est l’inquiétude – qui, collectivement, ne semble réellement poindre que ponctuellement, à l’occasion de certains événements médiatiques. Récemment, une expérience du même réseau social semble ainsi avoir contribué à sensibiliser l’opinion à ce sujet : pendant une semaine, en janvier 2012, des data-scientifiques de Facebook ont modifié ce que près de 700.000 utilisateurs du réseau social pouvaient voir quand ils se connectaient à son service. A certaines personnes, il a été montré du contenu avec des mots heureux et positifs; d’autres n’ont pu lire que des statuts analysés comme étant plus tristes que la moyenne. L’expérience devait évaluer la capacité de « contagion émotionnelle » des messages auxquels nous expose le réseau social. Mais nombre d’observateurs ont reproché aux chercheurs de les avoir manipulés. Commentant cette révélation, Danah Boyd explique :

« Il y a une quantité croissante de sentiment négatif vers Facebook et d’autres sociétés qui recueillent et utilisent des données sur les gens. En bref, il y a de la colère contre la pratique des Big data ». 

Et la chercheuse d’ajouter :

« Sur le plan personnel, je déteste le fait que Facebook pense être meilleur que moi pour décider quels sont les messages de mes amis que je devrais voir. Je déteste le fait de ne pas avoir de mécanisme de contrôle significatif sur le site. Je suis douloureusement consciente de la façon dont mon utilisation sporadique du site perturbe tellement leurs algorithmes, que ce que je vois dans mon fil d’actualité est totalement ordurier. Et je n’apprécie pas le fait que, parce que j’utilise à peine le site, la seule façon pour moi de faire passer un message à mes amis est de payer pour le publier. Mon utilisation minimale a fait de moi un paria des algorithmes – et si je n’étais pas assez technophile pour comprendre cela, j’aurais le sentiment d’être boudée par mes amis, plutôt que simplement jugée indigne par un algorithme ».

Big Brother ou Big Mother ?

Face à ces inquiétudes, les entreprises technologiques commencent à se mobiliser. Plutôt que d’entretenir la peur de Big Brother, le courtier en données Axciom expérimente une politique d’ouverture : avec About the data, l’internaute peut contrôler les données que possède l’entreprise à son sujet, les rectifier, en ajouter en échange de « services spéciaux » – mentir s’il le souhaite ! – et même cocher une case : « Do not track » (« Cesser d’enregistrer mes données »). Le pari fait par l’entreprise, c’est que le nombre d’internautes demandant à ce que leurs données soient effacées ne sera pas si élevé. Au contraire, ils pourraient être nombreux à « aider Big Brother » à partir du moment où ils estiment pouvoir lui faire confiance. Et les premiers résultats lui donnent raison : sur 500 000 visiteurs le premier mois, seulement 2% ont retiré leurs données, et à peine 11% les ont corrigées. 

A y regarder de près, les « services spéciaux » qu’offre Axciom aux internautes renseignant leurs données (essentiellement des abonnements à des services en ligne ou des réductions) valident d’ailleurs une autre idée portée notamment par Jaron Lanier : nos données personnelles ont de la valeur, et nous pourrions à l’avenir être rémunérés pour elles…

Alors la personnalisation, paradis ou enfer ? Le problème se pose en fait comme une balance entre deux tendances. Disons-le tout net, l’idéal de la personnalisation, c’est un peu Big Mother : c’est le web qui nous connaît par coeur, qui accompagne et devance même nos besoins par ses recommandations. Ce sont les conseils attentionnés et maternels des assistants numériques personnels, via nos smartphones et, de plus en plus, dans les objets de notre quotidien  le pilulier qui nous rappelle l’heure de nos médicaments ; le guidage vocal qui nous suggère une route différente pour aller au travail ce matin-là, parce que les données lui signalent un accident.

De l’autre côté du miroir, il y a Big Brother : l’intelligence qui paraît sournoise car elle ne vous dit pas toujours comment elle connaît toutes ces choses sur vous. 

Et nous, consommateurs, balançons sans cesse d’un modèle à l’autre dans ce schéma freudien. Nous voulons les attentions de la Mère sans les fourberies du grand frère. Aussi nous sommes tentés, tantôt de coopérer avec les algorithmes pour les aider à mieux nous servir, tantôt de mieux cacher nos données… des injonctions contradictoires que certains observateurs décrivent très bien : c’est l’objet du second billet de cette série, sur l’effet psychologique des publicités ciblées. Et du traitement de cette schizophrénie dépendra, à n’en pas douter, l’avenir de la personnalisation du web. 

Chaque semaine,
recevez les immanquables
par email