Ce que l’expérience de Facebook nous enseigne sur la manipulation des émotions share
back to to

Ce que l'expérience de Facebook nous enseigne sur la manipulation des émotions

7 août 2014

Pendant une semaine, en Janvier 2012, des data-scientifiques de Facebook ont modifié ce que près de 700.000 utilisateurs du réseau social pouvaient voir quand ils se connectaient à son service. A certaines personnes, il a été montré du contenu avec des mots heureux et positifs; d’autres n’ont pu lire que des statuts analysés comme plus tristes que la moyenne. A la fin de la semaine, les utilisateurs-cobayes se sont montrés plus enclins à publier eux-mêmes des statuts de la même teneur (positive ou négative) que ce qui avait dominé dans leur timeline les jours précédents.

Ce « bricolage » a été révélé au moment de la publication de l’étude dans les prestigieux Actes de l’Académie nationale des sciences. Ce n’était pas la première étude qui utilisait des données de Facebook pour évaluer la « contagion émotionnelle » des messages que nous lisons. Mais les autres études se contentaient d’analyser les données Facebook de l’utilisateur – quand nombre d’observateurs ont reproché à celle-ci de les « manipuler ».


Ethnographe et chercheuse chez Microsoft Research, danah boyd est spécialiste des interactions des adolescents sur Internet. Elle exprime dans cette tribune sa surprise en découvrant cette études et commente les réactions des observateurs, notamment scientifiques. Et dessine les contours d’une « éthique des algorithmes » dans un monde toujours plus organisé par les Big data. 

Je suis assez surprise par les réactions qui ont suivi la publication de l’étude sur la contagion émotionnelle menée par Facebook. Comme d’autres l’ont déjà souligné, la pratique de l’A/B Testing [proposer plusieurs variantes d’un produit pour déterminer ce qui convient le mieux au consommateur, ndlr] est assez répandue.

Et ce n’est pas la première fois que Facebook l’utilise pour déterminer son influence sur les comportements des utilisateurs, notamment dans le cadre de recherches scientifiques : une précédente étude montrait ainsi que les choix [de publications mises en avant] par Facebook pouvaient influencer les électeurs. Mais pourquoi alors est-ce cette étude en particulier qui a déclenché une telle tempête médiatique ? En demandant leur avis aux gens, deux principales raisons m’ont été données :

1. Le sentiment de bien-être de chacun est sacré ;
2. La recherche scientifique est différente des pratiques marketing.

Je ne trouve aucune de ces réponses satisfaisantes.

Les conséquences de l’expérience de Facebook

L’équipe de chercheurs de Facebook n’est pas vraiment libre face à son objet d’étude. Il leur est permis de faire de la recherche et de publier à condition que cela contribue au rayonnement de l’entreprise. Si Facebook avait su que cette recherche provoquerait une réaction médiatique aussi violente, l’entreprise n’aurait sûrement jamais autorisé cette étude ou sa publication. Je ne peux qu’imaginer la laideur des luttes internes qui doivent actuellement avoir cours au sein de l’entreprise, mais je suis certaine que le service de communication exige des chercheurs qu’ils fassent silence à ce sujet.

Je suis en tout cas convaincue que cette étude avait initialement pour ambition d’être utile à Facebook. Aussi, quel pouvait être son apport ? Un élément de réponse me vient du commentaire d’Adam Karmer [l’un des auteurs de l’étude, ndlr]: l’objectif était de déterminer si les sentiments partagés lors d’une publication pouvaient susciter une réponse émotionnelle particulière chez les autres utilisateurs, une fois qu’ils ont quitté Facebook.

En d’autres termes, Facebook souhaite conserver ses utilisateurs mais si ces derniers quittent le réseau social en se sentant plus triste, on peut supposer qu’ils ne voudront pas revenir ; il est donc dans l’intérêt de Facebook que les utilisateurs se sentent le plus heureux possible après une visite sur le réseau social. Or, cette étude suggère que les sentiments partagés dans une publication peuvent justement déterminer cela et qu’en pratique, pour Facebook, il vaut donc mieux réduire le nombre de contenus négatifs, a priori dans l’intérêt des utilisateurs comme du sien.

Nous pouvons longuement débattre afin de savoir si c’est bien cela que l’étude entend démontrer, mais gardons cette hypothèse pour l’instant. Supposons qu’avant l’étude, Facebook montrait un post négatif pour 3 positifs et que suite à cette expérimentation [d’une semaine], le réseau social ne montre plus qu’un post négatif pour dix contenus positifs. Si c’est bien le cas, les conclusions obtenues à l’issue d’un test d’une semaine sont-elles vraiment applicables à plus long terme ? Qui prend pareille décision ?

[…] De toute évidence, le problème est que Facebook demeure une « boîte noire » : nous ne savons pas ce que l’entreprise fait des résultats de ses études. Nous savons seulement que celle-ci fut publiée au PNAS [Comptes-rendus de l’Académie Américaine des Sciences, une revue scientifique] et ce n’est pas suffisant…

Si Facebook a effectivement rendu le contenu de son site plus positif, devons-nous simplement être heureux ? Qu’est-ce que cela signifie d’être susceptible de lire davantage les publications d’amis qui dévoilent des faire-parts de naissance ou les souvenirs d’une soirée réussie, mais de moins souvent voir apparaître leurs publications plus déprimantes, comme leur angoisse lors des derniers soubresauts d’une relation ? Si Alice est plus heureuse quand elle est inconsciente de la peine de Bob car Facebook choisit de lui épargner ce genre de contenus, voulons-nous vraiment sacrifier Bob et son appel à l’aide ? C’est une décision éthique délicate, et le fait est que Facebook fait ces choix chaque jour sans surveillance, transparence ou consentement explicite des utilisateurs.

Manipulation algorithmique de l’attention et des émotions

Facebook retouche activement le contenu que nous voyons. La majorité d’entre nous se concentre sur l’aspect commercial lié à cette pratique, mais la tâche principale des algorithmes est surtout de mettre en avant les contenus qu’ils pensent que nous avons envie de voir. Facebook détermine ainsi, par l’algorithmie, quelles publications d’amis vous verrez, non à des fins seulement commerciales, mais parce qu’ils veulent que vous reveniez sur le site jour après jour, que vous vous y sentiez bien, que vous n’y soyez jamais accablé. Leurs algorithmes servent quotidiennement à manipuler vos émotions. Quels critères participent à cette démarche ? Nous n’en savons rien.

Facebook n’est pas le seul à prédire par l’algorithmie les contenus que vous souhaitez voir. Tout système de recommandation ou de curation choisit de donner la priorité à un contenu plutôt qu’à un autre. Mais comparons ce que nous pouvons glaner d’informations dans cette étude avec les pratiques communément répandues [en la matière].

La plupart des sites internet, de celui du grand groupe de presse au réseau social, ont des algorithmes qui mettent en avant les contenus les plus populaires. C’est ce qui les conduit à produire des listes, des titres ostentatoires et des histoires d’accidents de voiture. A votre avis, qu’est-ce qui va recueillir le plus de trafic : une analyse détaillée de la situation syrienne ou 29 photos des créatures les plus mignonnes du royaume animal ? La peur et les ragots salaces vendent plus de papier, c’est une chose que les médias savent depuis longtemps ; 4chan nous a appris que l’imagerie grotesque et les chatons mignons marchent très bien aussi. Cela signifie que sur Internet, les informations sur lesquelles nous cliquons sont bien plus souvent des histoires d’amputations d’enfants, d’îles dangereuses infestées de serpents et des scandales de fuite de sex tapes de célébrités… Une véritable industrie a émergé pour produire ces mauvais contenus « pousse-au-clics », mis dans le même panier que les informations.

[…] Nous sommes aujourd’hui dans une société convaincue qu’il est totalement acceptable que les médias – et leurs camarades pousse-au-clics manipulent l’émotion des gens à travers des gros titres et les sujets qu’ils choisissent de couvrir ; et nous considérons généralement que les algorithmes sont parfaitement dans leur droit de nous imposer tel contenu plutôt qu’un autre, au mépris des conséquences psychologiques pour l’individu comme pour la société. En quoi la pratique de ces médias est-elle si différente [de celle de facebook] ? (outre que les médias ne se tiendront jamais pour responsables de leurs propres pratiques manipulatoires…) 

D’une certaine façon, hausser les épaules et se dire que les contenus promus ne le sont qu’en fonction de critères de popularité est encore acceptable : les médias n’expriment pas, de cette façon, leur volonté tacite de manipuler nos émotions pour que nous continuions à voir leurs reportages et leurs pubs. Il est aussi relativement acceptable de manipuler les gens pour de la pub car, après tout, c’est « seulement du business ».

En revanche, quand des chercheurs admettent qu’ils essaient de comprendre comment l’on peut manipuler les émotions, ils sont cloués au pilori. Ce que cela nous apprend, c’est que la pratique [de la manipulation] est acceptable, mais qu’admettre cette intention et être transparent sur sa volonté d’en comprendre les rouages ne l’est pas.

L’éthique n’est pas réservée à la recherche scientifique

Tout au long du débat, lorsque des observateurs soulignaient que ces pratiques commerciales sont monnaie courante, d’autres rappelaient que la recherche ou la science sont différentes. On assiste ainsi à de fortes prises de position sur la pureté de la recherche et de sa vocation à rester éthique. Bien entendu, je pense que nous avons besoin d’une discussion sérieuse sur ce qu’est le consentement préalable et éclairé de l’utilisateur, et sur les décisions éthiques que font les entreprises avec leurs données. [Les chercheurs de Facebook ont pu réaliser cette expérience grâce au fait que les conditions générales d’utilisation du service – que chacun doit accepter à l’inscription, souvent sans les lire – impliquent l’utilisation de leurs données à des fins de recherches scientifiques, ndlr]. Mais je ne crois pas que cette discussion ne doive s’appliquer qu’à ce qui est classé dans la rubrique «recherche». Je ne pense pas non plus que le crédit universitaire soit un gage d’éthique. 

[…]

Plus je lis les réactions des gens, plus je pense que l’outrage n’a rien à voir avec l’étude. Il y a une quantité croissante de sentiment négatif vers Facebook et d’autres sociétés qui recueillent et utilisent des données sur les gens. En bref, il y a de la colère contre la pratique des Big data. Cette étude a fourni des munitions à la colère des gens, parce que c’est tellement difficile de parler de mal dans l’abstrait.

Pour le meilleur ou pour le pire, les gens s’imaginent que Facebook leur est offert par un dictateur bienveillant, que le site est là pour leur permettre de mieux communiquer avec les autres. Dans un certain sens, c’est vrai. Mais Facebook est aussi une entreprise. Et une entreprise publique, en l’espèce. Elle doit trouver le moyen de devenir plus rentable à chaque trimestre. Cela signifie qu’elle conçoit ses algorithmes non seulement pour vous adresser des publicités ciblées, mais aussi pour vous convaincre de revenir encore et encore. Les gens ont une idée abstraite de la façon dont cela fonctionne, mais ils ne le savent pas exactement, et ne veulent pas vraiment savoir. Ils veulent juste que le hot-dog soit bon. Que ce soit sous le sceau de la recherche ou des opérations, les gens ne veulent pas penser qu’ils sont manipulés. Alors, quand ils découvrent ce quoi est fait ce Soleil vert, ils sont outrés. Cette étude n’est donc pas vraiment ce qui est en jeu : ce qui est en jeu, c’est la dynamique sous-jacente de la façon dont Facebook gère ses activités, exploite son réseau, et prend des décisions qui n’ont rien à voir avec la façon dont ses utilisateurs veulent que Facebook fonctionne. Il ne s’agit pas de recherche : c’est une question de pouvoir.

Je comprends cette colère. Je déteste personnellement Facebook depuis longtemps, même si j’aime étudier son importance dans la vie des gens. Sur le plan personnel, je déteste le fait que Facebook pense être meilleur que moi pour décider quels sont les messages de mes amis que je devrais voir. Je déteste le fait de ne pas avoir de mécanisme de contrôle significatif sur le site. Je suis douloureusement consciente de la façon dont mon utilisation sporadique du site perturbe tellement leurs algorithmes, que ce que je vois dans mon fil d’actualité est totalement ordurier. Et je n’apprécie pas le fait que, parce que j’utilise à peine le site, la seule façon pour moi de faire passer un message à mes amis est de payer pour le publier. Mon utilisation minimale a fait de moi un paria des algorithmes – et si je n’étais pas assez technophile pour comprendre cela, j’aurais le sentiment d’être boudée par mes amis, plutôt que simplement jugée indigne par un algorithme. Je refuse également de jouer le jeu pour me faire bien voir devant l’autel des algorithmes. Et chaque fois que je suis forcée de traiter avec Facebook, je ne peux pas m’empêcher de ressentir ses manipulations.

Il y a aussi beaucoup de choses que je n’aime pas à propos de la société et de ses pratiques. Dans le même temps, je suis contente qu’ils aient commencé à travailler avec les chercheurs et à publier leurs résultats. Je pense que nous avons besoin de plus de transparence dans le travail algorithmique effectué par ce genre de systèmes, et leur volonté de publier ces travaux a été l’un des rares moyens que nous ayons pu glaner pour avoir un aperçu de ce qui se passe. Bien sûr, je pense aussi que la réaction de colère face à cette étude va les inciter à réduire l’ouverture au public du travail des chercheurs. J’imagine qu’ils vont réagir naïvement à cette situation, comme si les pratiques des chercheurs était ce qui les rend vulnérables, plutôt que leurs pratiques en tant que société dans son ensemble. Au-delà de ce que cela signifie pour les chercheurs, je suis préoccupée par ce qu’une augmentation du secret signifierait pour un public qui n’a aucune idée de ce qui se fait avec leurs données, qui pourrait penser que l’absence de nouveaux rapports signifie que Facebook a cessé de manipuler les données.

Les sociétés de l’information ne sont pas des industries pharmaceutiques. Elles n’ont pas besoin de faire des essais cliniques avant de mettre un produit sur le marché. Elles peuvent manipuler psychologiquement leurs utilisateurs autant qu’elles veulent, sans obligation d’expliquer exactement ce qu’elles font. Et en tant qu’utilisateurs, nous ne pouvons que deviner ce que la boîte noire est en train de faire.

Il y a beaucoup à réformer ici. Nous avons besoin de comprendre comment avoir une conversation sérieuse sur l’éthique d’entreprise, indépendamment du fait qu’elle bénéficie ou non du crédit de la recherche académique. Mais ce n’est pas aussi simple que d’expliquer que l’absence d’un comité d’éthique d’entreprise ou l’absence d’une norme de «consentement préalable» signifie que la pratique est contraire à l’éthique. Presque toutes les manipulations réalisées par ces sociétés se produisent sans aucun des deux. Et elles ne sont pas contrôlées, parce qu’elles ne sont pas publiées ni publiques.

La surveillance de l’éthique n’est pas facile et je n’ai pas de solution rapide et efficace pour la mettre en œuvre. Mais j’ai quelques idées. Pour commencer, je voudrais voir toute entreprise qui manipule des données utilisateur créer un comité d’éthique. Pas un comité scientifique qui approuve les études de recherche, mais un comité d’éthique qui a une visibilité sur tous les algorithmes propriétaires qui pourraient affecter les utilisateurs. Pour les entreprises publiques, cela pourrait être fait par le comité d’éthique du conseil d’administration. Mais plutôt que d’être seulement composés de membres du conseil d’administration, je pense que ces comités devraient être composés de chercheurs et d’utilisateurs. Je pense aussi qu’il faudrait mettre en place un mécanisme de dénonciation en matière d’éthique au sein des entreprises, parce que je remarque que de nombreux employés de sociétés comme Facebook sont très préoccupés par certaines décisions algorithmiques, mais pensent qu’il n’y a pas moyen de signaler ces préoccupations responsables sans les rendre entièrement publiques. Cela ne résoudrait pas tous les problèmes, et je ne suis convaincue que la plupart des entreprises le feraient volontairement. Mais c’est certainement une idée à considérer. Plus que tout, je voudrais que les utilisateurs aient la capacité d’agir sensiblement sur ce qui est fait de leurs données, et je serais ravie de voir apparaître un moyen pour que leurs voix soient entendues dans ces processus.

Je suis heureuse que cette étude ait suscité un intense débat parmi les chercheurs et le public, mais je crains que cela ne se soit transformé en une attaque simpliste contre Facebook à l’occasion de ce rapport en particulier, plutôt qu’un débat nuancé sur la façon dont nous devons créer une surveillance éthique significative dans la recherche et la pratique. Les lignes entre la recherche et la pratique sont toujours floues et les sociétés de l’information comme Facebook les rendent de plus en plus saillantes. Personne ne profite de lignes tracées dans du sable : nous devons régler le problème de manière plus globale. Et en attendant, nous devons tenir les entreprises pour responsables de la façon dont elles manipulent les gens à travers des comités d’éthique, qu’ils soient académiques ou non. Si nous nous concentrons trop sur cette étude, nous perdons la trace des grandes questions en jeu.

 
Cet article a été initialement publié en anglais sur SocialMediaCollective.org, le blog des chercheurs du laboratoire Microsoft Research New England. Nous traduisons régulièrement une sélection de billets issus de ce blog, choisis en fonction de leur capacité à importer, dans le débat français, quelques-uns des questionnements au cœur des recherches actuellement menées outre-Atlantique, où les réseaux sociaux sont l’objet de véritables recherches universitaires.

Chaque semaine,
recevez les immanquables
par email