Personnalisation du web : le malaise des publicités ciblées (2/3) share
back to to

Personnalisation du web : le malaise des publicités ciblées (2/3)

21 août 2014
Cet été, les algorithmes de recommandation en ligne ont fait couler beaucoup d'encre. Alors que Facebook s'est trouvé victime d'un bad buzz à cause de révélations sur la façon dont fonctionnent les siens, les voix se multiplient pour interroger ces intelligences artificielles qui influencent nos choix sur le web. Petit tour d'horizon, en trois étapes.

Aujourd’hui, un nombre croissant de services web et d’applications mobiles utilisent des algorithmes pour trier, selon nos goûts ou nos habitudes, les résultats de nos recherches et les statuts de nos amis. Ils utilisent pour cela nos données personnelles – historiques de navigation, géolocalisation, cookies, et autres informations publiques sur les réseaux sociaux. Le but ? S’assurer que les publicités sont bien ciblées, c’est à dire qu’elles délivrent le bon message à la bonne personne et au bon moment. Les cookies et autres « témoins numériques » font ainsi vivre l’industrie de la publicité en ligne au service des marques – une industrie qui affichait un chiffre d’affaires de 102 milliards de dollars en 2013.

Pour mémoire, le premier billet de cette série interrogeait notre comportement parfois schizophrénique face aux algorithmes : d’un côté, notre satisfaction d’être chouchoutés par eux (l’effet « Big Mother ») et de l’autre, notre peur de Big Brother. Dans ce billet, nous allons plonger au coeur de la contradiction, avec ceux qui analysent nos réactions psychologiques face aux intelligences artificielles.

Bienvenue dans la Vallée de l’étrange

Au Royaume-Uni, 68% des consommateurs en ligne trouvent « effrayante » la façon dont les marques utilisent actuellement des informations détenues sur eux. Pourtant, nous l’avons vu avec l’exemple d’Axciom : au-delà de l’inquiétude que les algorithmes provoquent, les internautes pourraient être nombreux à « aider Big Brother » à partir du moment où ils estiment pouvoir lui faire confiance. Et comment pourrait-il en être autrement ? En tant que consommateurs, nous apprécions de recevoir des réductions sur les produits que nous aimons, et nous sommes ravis que les supermarchés en ligne nous montrent en premier lieu ceux que nous achetons régulièrement.

Mais il y a un certain niveau de pertinence dans ces recommandations, au-delà duquel nous commençons à ressentir un malaise : c’est lorsque l’algorithme devient « trop bon », que nous commençons à penser que nous sommes espionnés. Trop bonne, oui mais… pas encore parfaite. Cela ne vous rappelle rien ?

En robotique, la « vallée de l’étrange » est une réaction psychologique de malaise devant certains robots humanoïdes, réalistes mais imparfaits. Cette « loi » (non validée scientifiquement) établit que plus un robot est réaliste, plus nous éprouvons de l’affection pour lui… jusqu’à un certain point : tant que nous sommes sûrs, au premier coup d’oeil, qu’il s’agit d’un robot et pouvons le juger en tant que tel.

Le malaise se fait sentir au-delà d’un certain seuil de ressemblance – lorsque nous avons l’impression, non plus d’être en face d’un robot très réaliste, mais plutôt d’un humain étrange…

Actuellement, les robots les plus réalistes ne parviennent pas à franchir la Vallée de l’étrange. Pour que la courbe de sympathie remonte, il faudrait qu’ils soient tellement parfaits qu’on ne puisse pas les distinguer d’une personne en bonne santé.

Mais quel rapport avec les algorithmes de recommandation ? En fait, l’amélioration de ces « intelligences artificielles » nous procurerait la même sensation étrange que celle des robots humanoïdes. C’est en tout cas ce qu’expliquent plusieurs observateurs, qui en concluent que la personnalisation du web ne suivra pas un modèle linéaire : il serait faux de penser que davantage de personnalisation équivaut à une meilleure pertinence ; donc un engagement plus important ; donc des consommateurs plus heureux. Le modèle, disent-ils, ressemble en réalité à une vallée entre deux montagnes… une Vallée de l’Etrange.

Recommandations automatiques, introspection et inquiétude

Pour la chercheuse Sara Watson, l’étrange vient du fait que les algorithmes de recommandation sont faits de telle sorte que nous pouvons déduire la façon dont ils fonctionnent, mais restent encore trop grossiers : lorsque les publicités en ligne nous proposent, par exemple, un produit que nous venons d’acheter sur un site marchand, nous comprenons la logique de l’algorithme (nous avons consulté le produit, il nous intéresse donc), mais nous ne savons pas pourquoi il n’est pas plus intelligent (« comment peut-il ne pas savoir que je l’ai déjà acheté ? »). Nous ressentons les mauvais côtés de la personnalisation (son côté intrusif), sans les bons côtés (inutilité, maladresse). D’où le malaise – un peu comme si un ami vous donnait un conseil tellement peu avisé, que vous découvrez qu’il se fait une fausse image de vous… S’agissant d’un algorithme, ce sentiment est d’autant plus désagréable que nous ignorons ce qui se passe dans les coulisses.

Ce malaise peut aller jusqu’à nous amener à nous poser des questions sur nous-mêmes, comme le suggère l’auteur qui se réfère au concept « d’inquiétante étrangeté » de Freud :

« Pourquoi dois-je le prendre si personnellement quand l’algorithme se trompe? (…) Nous n’avons pas souvent l’occasion de demander à nos machines : ‘Qu’est-ce qui vous fait penser cela de moi?’. Lorsque ces systèmes manquent leur but, ils peuvent interférer avec le sentiment de soi d’une personne. Il est parfois difficile de dire si c’est l’algorithme qui ne nous connaît pas du tout, ou si c’est qu’il nous connaît en fait mieux que nous ne nous connaissons. Et c’est déconcertant de penser qu’il pourrait y avoir une lueur de vérité dans ce qui ne nous semble pas familier. Cela va au-delà de la chair de poule, et même au-delà du sentiment d’être regardé. Ainsi, je dirais que nous sommes entrés dans la Vallée de l’Etrange quand on ne peut savoir si une publicité est trop largement ou trop finement ciblée pour nous (…), lorsque les données sont à la fois trop et pas assez proches de ce que nous savons sur nous-mêmes ».

Bien entendu, un peu de rationalisation permet de raison garder. Les indices que nous laissons échapper en ligne au sujet de nos vies nous classent simplement dans des catégories d’utilisateurs qui peuvent être très larges, et actuellement, un grand nombre des recommandations publicitaires que nous recevons n’émanent pas des algorithmes et des ciblages les plus sophistiqués. Il est encore facile de faire croire à votre site de vente en ligne que vous êtes un-e catholique pratiquant-e, lorsque vous cherchez la référence d’un livre qui convienne à votre belle-soeur.

Reste que chercher à tromper l’algorithme de Facebook, par exemple en « likant » tout et n’importe quoi, procure un grand moment de solitude qu’ont récemment expérimenté et raconté certains journalistes. Le réseau social serait également entré dans la Vallée de l’étrange, semble-t-il, lorsqu’à l’occasion d’une expérience récente, il a modifié ce que certains de ses utilisateurs pouvaient voir en accédant aux nouvelles de leurs amis – sans les prévenir.

Reste aussi l’incertitude au sujet de ce que les algorithmes savent de nous, et les malaises que cela génère en cas de bug – comme le fait remarquer Sara Watson en citant le « cas Mike Seay ». Ce chicagoan a découvert que les courtiers en données gardaient la trace de la mort de sa fille, le jour où il a pu lire dans un courrier cette information malencontreusement imprimée entre son nom et son adresse : « Mike Seay, fille tuée dans un accident de voiture ».

Sortir de la Vallée ?

Ainsi le concept de la Vallée de l’Etrange semble nous aider à comprendre comment nos attentes vis-à-vis des nouvelles technologies évoluent, à mesure que s’améliorent le réalisme et l’intelligence des artefacts numériques.

Et si l’on en croit le modèle, une fois perfectionnés, ces mécanismes pourraient nous faire oublier tout malaise, pour faire apprécier aux internautes de demain la présence d’un compagnon numérique aussi complice qu’un humain – une hypothèse qu’explore le film Her par exemple.

Mais pour sortir de la Vallée, il faudra tout de même se mettre à la tâche. D’abord en résolvant certaines questions éthiques, selon Sara Watson, qui demande où se situe la limite entre un bon service client et un comportement intrusif. Comme le prévient la chercheuse, l’endroit où cette frontière devrait être tracée va définir nos interactions avec les données dans les années à venir. Pour elle, cela implique que les entreprises soient plus transparentes sur la raison et la façon dont elles utilisent ces données, et que les consommateurs soient sensibilisés au sujet.

En quoi les algorithmes peuvent-ils transformer notre vision du monde ? Pour le meilleur ou pour le pire ? Le point avec trois (autres) penseurs du numérique, c’est par là dans notre troisième et dernier billet.

Chaque semaine,
recevez les immanquables
par email