De meilleures données pour un meilleur Internet ?

12 décembre 2011

Comment utiliser les millions de données disponibles ou collectables sur Internet pour aider les gouvernements, les entreprises, les utilisateurs à prendre de meilleures décisions, plus fiables et plus documentées ?

C’est la question à laquelle ont voulu tenter de répondre deux chercheurs d’Harvard, John Palfrey et Jonathan Zittrain, auteur notamment de « The future of the Internet – and how to stop it », dans un article publié le 2 décembre dernier.

Pour illustrer l’importance du débat, ils prennent pour point de départ les émeutes londoniennes de l’été 2011. Souvenez-vous : le Premier Ministre britannique avait suggéré de restreindre l’accès aux médias sociaux et en a convoqué les responsables pour discuter de leurs rôles dans ces émeutes.

Son postulat de départ était très simple : les émeutiers ayant recours à leurs services pour orchestrer certaines violences, les réseaux sociaux étaient indirectement complices de trouble à l’ordre public et devaient être placés sous surveillance, voire totalement interdits à certains citoyens.

Le débat a été animé – Paola Tubaro et Antonio Casilli nous avait notamment expliqué que « les médias sociaux sont des outils, pas des déclencheurs d’émeute » – et le gouvernement anglais a finalement reculé. Mais les échanges ont fait ressurgir la question de la régulation ou non d’Internet et de la prise de décision concernant le réseau.

Pour les deux chercheurs d’Harvard, « ce qui frappe le plus dans ces débats, c’est le manque de données disponibles pour aider la prise de décision et pire encore, l’ignorance de l’existence de ces données ».

> Voir au-delà de la simple « photographie »

Leur constat initial : malgré la multitude de données disponibles, collectées par les opérateurs, les gouvernements, les utilisateurs, les services en ligne, on ne comprend pas ce qui se passe réellement dans le monde numérique, à un niveau systémique.

Et plutôt que d’essayer d’analyser ces données, les décisions politiques sont « trop souvent basées sur des anecdotes collectées au hasard – ou pire pour servir des intérêts – ou basées sur des recherches produites ou financées de manière peu académiques ».

Un exemple ? « La plupart des décisions pour protéger les enfants en ligne ont été prises dans la peur de ce que les enfants font en ligne, pas sur des données montrant ce qu’ils font vraiment en ligne. »

Mais cette prise de « mauvaises décisions » ne doit pas pour autant être un argument pour la « dérégulation d’Internet » :

« La meilleure approche n’est ni de prendre des décisions mal informées, basées sur trop peu de données, ni de contourner les régulations étatiques simplement à cause de l’absence de données décentes. »

Et à la place, ils appellent de leurs vœux la mise en place de « mesures extrêmement fiables et publiquement disponibles de ce qui se passent sur Internet et sur le Web et sur notre façon de les utiliser ».

> De meilleures données pour un meilleur réseau et de meilleures décisions

En clair : ils veulent utiliser des données plus fiables, plus nombreuses et non partisanes, pour créer un meilleur réseau, mais également pour améliorer l’autorégulation des différents acteurs et leur donner la possibilité de prendre de meilleures décisions.

Pour cela, les chercheurs distinguent trois étapes majeures, « pour dépasser la capture d’écran et comprendre le réseau au niveau systémique » :

1) « Mieux comprendre l’architecture du réseau et son évolution ». Par exemple : le web devient-il plus ou moins centralisé ? Comment fonctionne-t-il réellement ? Avec quelle infrastructure ?

2) « Mieux comprendre les flots d’information sur le réseau », et en particulier leurs sources et les points de blocage et de censure, en fonction des régions du globe

3) Et enfin « mieux comprendre les pratiques humaines dans ces environnements numériques », notamment – mais pas seulement – celles des jeunes sur les réseaux sociaux.

Pour réussir cette mutation, « nous devons être capables d’extraire les données des « terrains de chasse réservés » en ligne » et de « les collecter dynamiquement et en collaboration avec les internautes pour qu’ils puissent ensuite les analyser et les réutiliser sans restriction », expliquent les auteurs.

Hasard du calendrier, la plateforme open data française, data.gouv.fr, est justement sortie trois jours après la publication de cet article, avec des objectifs proches… Le début de la production de meilleures données pour un meilleur Internet ?

Chaque semaine,
recevez les immanquables
par email