Toutes les actus

RECENSION : Dominique Cardon dévoile les rêves des algorithmes

Dans son dernier ouvrage paru en octobre 2015, Dominique Cardon, sociologue spécialiste du numérique et d’Internet, nous invite à comprendre la logique des algorithmes pour mieux reprendre du pouvoir dans la « société des calculs ». Il s’intéresse à la place qu’occupent ces derniers à travers le classement de l’information, la personnalisation publicitaire, la recommandation de produits ou encore le ciblage des comportements. Son regard relève à la fois de la sociologie et des Sciences de l’Information et de la Communication (SIC) mais aucunement de l’informatique ou des mathématiques. Cette approche devrait intéresser particulièrement le professeur documentaliste retrouvera dans cet ouvrage des thématiques et des objets d’études bien connus.

Introduction

Dominique Cardon, sociologue au Laboratoire des usages d’Orange Labs et professeur associé à l’université de Marne-la-Vallée, publie en octobre 2015 un ouvrage intitulé À quoi rêvent les algorithmes. Nos vies à l’heure des big data1. Partant du constat que les nouvelles techniques de calcul transforment nos sociétés, il s’est intéressé de près aux algorithmes, ces formules mathématiques très complexes et effrayantes pour celui qui ne les maîtrisent pas (ce qui est le cas de la plupart d’entre nous), afin de nous aider à mieux les comprendre et à mieux les apprivoiser. Il en va pour lui d’un enjeu citoyen puisque les algorithmes sont porteurs d’un projet politique, promouvant des valeurs et le type de société qui en découle.

Divisés en quatre chapitres, cet ouvrage d’une centaine de pages aborde l’univers algorithmique d’un point de vue relevant à la fois de la sociologie et des Sciences de l’Information et de la Communication (SIC). Depuis l’arrivée de la mesure statistique dans nos sociétés jusqu’au web 2.0, Dominique Cardon retrace les évolutions des outils de calcul, dresse une typologie des algorithmes à travers les valeurs qu’ils promeuvent et donne un éclairage sur notre société « numérique ». Outre les qualités pédagogiques dont fait preuve son auteur (à l’image d’ailleurs de son précédent ouvrage2), ce livre s’avère particulièrement intéressant pour les professeurs documentalistes qui retrouveront des thématiques et des objets d’études connus et souvent déjà travaillés avec les élèves (moteur de recherche, réseaux sociaux, encyclopédie collaborative en ligne, recommandations, publicité ciblée, identité numérique, trace numérique, lien hypertexte, popularité versus autorité…).

Nous présenterons, chapitre par chapitre, l’ouvrage de Dominique Cardon en nous focalisant tout de même sur le premier d’entre eux car c’est, selon nous, celui qui intéressera le plus les professeurs documentalistes et ce, pour plusieurs raisons. Tout d’abord c’est le chapitre le plus relatif aux SIC, le reste de l’ouvrage relevant souvent de la sociologie. Ensuite, il permet de (re)mettre à jour certaines connaissances, notamment sur le fonctionnement du classement de l’information sur le web. Enfin, il fera écho à de nombreuses thématiques ou notions abordées en cours avec les élèves.

1. Chapitre premier : Quatre familles de calcul numérique

Le livre s’ouvre sur une introduction dans laquelle Dominique Cardon définit ce qu’est un algorithme (« une série d’instructions permettant d’obtenir un résultat »3), pour pointer ensuite l’intérêt qu’il y a à les comprendre pour mieux critiquer la manière dont ils influencent nos vies. Il les replace dans le contexte sociopolitique de la mesure statistique en retraçant brièvement l’historique de celle-ci depuis les années 1970 jusqu’à nos jours. Dominique Cardon souligne ensuite les enjeux économiques (monétisation des données et orientation de nos choix de consommation), éthiques (menace sur la vie privée) et politiques (mesure statistique servant à orienter les choix gouvernementaux) qui sont liés aux algorithmes. Ces enjeux sont d’autant plus importants que nous sommes pleinement entrés, selon l’auteur, dans la « société des calculs » à travers, d’une part, l’accélération du processus de numérisation de nos sociétés (5 milliards de gigabits d’informations numériques, soit la totalité de toutes les communications et les écrits depuis l’aube de l’humanité jusqu’en 2003, sont générées en deux jours) et, d’autre part, le développement des algorithmes venus d’univers différents (marketing, marchés financiers…) dans le but de donner du sens à toutes ces données. Dominique Cardon nous invite alors à dépasser le sentiment d’incompétence qui nous submerge naturellement quand il est question de regarder de plus près ces calculs. Il s’agit de s’interroger sur la manière dont ils ont été produits, plus que d’étudier la formule mathématique ou le processus technique informatique qu’il a été nécessaire de mettre en place (deux domaines qui, pour le coup, s’avèrent complexes et souvent hors de notre portée) afin de ne pas laisser aux mains des statisticiens, des informaticiens et autres économètres le pouvoir d’influencer nos choix de sociétés. Pour l’auteur, l’enjeu est bien politique et démocratique. En effet, « les calculateurs fabriquent notre réel, l’organisent et l’orientent »4 et le fait de modifier les paramètres du calcul conduit à valoriser des choses très différentes, c’est pourquoi il importe de comprendre les effets que les algorithmes produisent sur nos sociétés.

Dans le premier chapitre, Dominique Cardon se propose de dresser une typologie des familles de calcul numérique (ce travail n’est pas sans rappeler au lecteur le style clair et limpide dont l’auteur avait déjà fait preuve lors d’un précédent article publié en 2008 traitant de la cartographie du web 2.05). Au nombre de quatre, ces familles se succèdent chronologiquement dans l’histoire du web et produisent chacune à leurs manières une visibilité différente des calculs.

  • La première technique de calcul se place « à côté du web » et ordonne la popularité des sites en fonction du nombre de clics des internautes. Le principe de cet indicateur est directement inspiré des techniques de mesure d’audience des médias. Il utilise l’adresse IP de l’ordinateur pour s’assurer de ne pas comptabiliser plusieurs fois le même internaute. Cette mesure d’audience s’inspire du vote démocratique en ce qu’elle fait correspondre une voix au clic de l’internaute. Les sites classés en tête sont ceux qui ont recueilli le plus de votes. L’auteur rappelle que la mesure d’audience des sites web sert en réalité à mesurer des parts de marchés et intéresse principalement le marché publicitaire qui va ainsi déterminer la valeur des bandeaux publicitaires.

Afin d’améliorer ces mesures et d’obtenir les informations sociodémographiques manquantes sur l’utilisateur, les spécialistes de la mesure d’audience vont avoir recours à un fichier mouchard bien connu sous le nom de cookie. Inventé en 1994 par Lou Montulli, le cookie va permettre aux publicitaires et aux grandes plateformes du web de rentrer dans l’intimité des internautes en recueillant des informations sur ses navigations passées.

Deux méthodes, user et site centric, mettent surtout en avant deux façons différentes de connaissance d’audience. La première s’intéresse à la qualification du public (profession, âge, lieu de vie…) alors que la seconde cherche à établir des profils en enregistrant des comportements sans vraiment connaître les individus. Pour finir, Dominique Cardon rappelle qu’« appliquée aux connaissances, la popularité n’est en rien garante de qualité. Elle valorise de façon écrasante les choix conformistes, consensuels et populaires »6. C’est la raison pour laquelle une deuxième famille de calculateurs va alors voir le jour.

  • La deuxième technique de calcul se situe « au-dessus du web » et cherche à hiérarchiser l’autorité des sites à travers les liens hypertextes qu’ils s’échangent. Cette technique, dont le PageRank de Google est l’exemple le plus connu, vient révolutionner le classement des sites web jusqu’alors basé sur le nombre de fois où le mot-clé de la requête était présent dans la page. Il ne s’agit plus pour l’algorithme de « comprendre » ce que dit la page mais de mesurer l’influence sociale de la page au sein du web. Le vote est ici méritocratique : le nombre de clics est remplacé par le nombre de liens qu’un site reçoit d’autres sites, le lien hypertexte étant vu comme une reconnaissance d’autorité. Peu importe que le site A dise du bien ou du mal du site B, seul compte le fait que le site A ait estimé important de citer le site B (comme un référence, une source, une preuve, un exemple ou un contre-exemple). L’information la plus visible n’est plus la plus vue (le principe de popularité de la première technique) mais celle que les internautes ont plébiscité en lui adressant beaucoup de liens.

Ce système, issu du classement des revues scientifiques, ne s’apparente plus au vote démocratique et oublie les lecteurs silencieux (ceux qui ne publient pas sur le web). L’information n’est ici plus filtrée a priori (avant d’être publiée) mais a posteriori par les moteurs de recherche sur la base des jugements émis par les internautes actifs sur le web (ceux qui publient).

Une des conditions primordiales pour qu’une telle mesure d’autorité fonctionne est que les internautes oublient la présence et le fonctionnement des calculateurs. En effet, l’algorithme, pour être le plus objectif possible, ne doit ni influencer les internautes ni être influencé par eux. Or, chacun sait que de nombreuses entreprises offrent leurs services aux sites qui souhaitent améliorer leur classement en tentant notamment de produire une autorité artificielle à travers, par exemple, la fabrication de faux sites, mettant ainsi à mal cette technique de mesure basée sur l’autorité. Deux reproches principaux lui sont d’ailleurs adressés. Le premier est l’effet d’exclusion et de centralisation de l’autorité que produit une telle méthode. Ce sont en effet ceux qui se trouvent au centre du réseau qui sont les plus souvent cités et la mesure d’autorité se transforme alors en une mesure de popularité. Le second reproche est l’effet censitaire de cette méthode. Celle-ci ne prend en compte que l’avis des internautes qui publient sur le web des documents comportant des liens hypertextes. Or, d’autres usages se sont développés ces dernières années, notamment à travers les réseaux sociaux. De nombreux internautes sont devenus acteurs à travers leur page Facebook ou leur compte Twitter et leurs voix doivent être prises en compte. Le problème est que s’il est possible de considérer qu’un lien hypertexte renferme une reconnaissance d’autorité, il n’est plus possible de faire de même avec le like, tant ce dernier est investi de « significations subjectives, de jeux identitaires, d’appréciations contradictoires et d’idiosyncrasies contextuelles »7. Cette problématique va donner naissance à la troisième famille de calculateurs.

  • La troisième technique de calcul se positionne « à l’intérieur du web » et cherche à mesurer la réputation numérique des internautes et des produits. Contrairement aux métriques d’autorité (deuxième technique de calcul) qui se focalisent sur la reconnaissance dont les documents font l’objet sans se soucier de la qualité de leurs auteurs, les métriques de réputation poussent les internautes à se mesurer eux-mêmes au sein du web. Il s’agit de rendre audible les nombreux internautes s’exprimant sur les réseaux sociaux. Le nombre de like obtenus, le nombre d’amis sur Facebook, le nombre d’abonnés sur Twitter ou encore le nombre de fois qu’une information produite aura été commentée ou partagée par d’autres permettent de mesurer cette réputation numérique et d’offrir un nouveau mode de classement. Il s’agit de « mesurer le pouvoir qu’a l’internaute de voir les autres relayer les messages qu’il émet sur le réseau, […], de mesurer la force sociale d’un nom, d’un portrait ou d’une image »8.

Contrairement au monde de l’autorité où la visibilité se mérite, celle-ci peut se fabriquer et s’anticiper dans celui de la réputation. Il existe par exemple des manuels de management de la « e-réputation » donnant des conseils sur le jour et l’heure optimale à laquelle poster un tweet pour s’assurer de son retweet : « placés dans le web, sous les yeux de tous, les compteurs rendent les internautes calculateurs »9.

Enfin, un autre ensemble de mesure de réputation est apparu sur le web : celui des « Notes et avis ». Les internautes sont invités à donner collectivement leur avis sur toutes sortes de choses (hôtels, restaurants, produits culturels…). Cette pratique s’apparente à une démocratisation du marché rapprochant vendeurs et consommateurs en supprimant les intermédiaires souvent jugés partiaux ou corrompus. Tout peut être évalué par tout le monde. Seulement là aussi, seule une minorité active fabrique ces évaluations et les notes données sont peu discriminantes. Ajouté à cela le problème des faux avis et voilà les plateformes obligées de faire évaluer les commentateurs pour réussir à distinguer parmi eux les réels connaisseurs.

Ces mesures de réputation font, à leur tour, l’objet de critiques. La première est qu’elles enferment l’internaute dans une bulle, entouré de ses semblables. Elles forcent les internautes à se regrouper par affinités afin de faire grossir leur réputation en se citant les uns les autres. Ces derniers s’exposent donc moins à des informations qui pourraient les surprendre, les déranger ou les contredire.

La seconde critique est que ces nombreuses mesures éparpillées peuvent difficilement être agrégées. De plus, « la signification qu’enferment les micro-appréciations de réputation du web social est souvent trop jouée, trop calculée et, surtout, bien trop contextuelle pour être véritablement commensurable »10. Autrement dit, tous ces signes sortis de leur contexte ne sont souvent ni véridiques ni authentiques. Un décalage se creuse donc entre ce que disent faire les internautes et ce qu’ils font vraiment. C’est pourquoi la dernière famille de calculateurs va arrêter d’essayer d’interpréter ce que disent les internautes pour se contenter de suivre leurs traces sans chercher à les interpréter.

  • La quatrième et dernière famille est celle des techniques de calcul qui se placent « sous le web » de façon à enregistrer le plus discrètement possible les traces de navigation des internautes pour leur prédire leur comportement à partir de celui des autres. Il s’agit de « personnaliser les calculs à partir des traces d’activités des internautes pour les inciter à agir dans telle direction plutôt que dans telle autre »11. L’algorithme, en comparant un profil à ceux d’autres internautes ayant effectué la même action que lui, anticipe qu’ « une personne pourrait faire telle ou telle chose qu’elle n’a pas encore fait parce que celles qui lui ressemblent l’ont, elles, déjà faite »12. Il est donc possible de prévoir le futur de l’internaute à l’aide du passé de ceux qui lui ressemblent.

Les promoteurs des big data assurent qu’il ne faut faire confiance qu’aux conduites réelles des internautes et non à ce qu’ils prétendent faire lorsqu’ils se racontent sur les plateformes du web social. Cela influence fortement les pratiques de marketing comportemental qui cherchent à rentabiliser au mieux leurs publicités. Le marché de l’affichage publicitaire est ainsi coupé en deux : d’un côté les gros sites parviennent à vendre aux annonceurs des bannières publicitaires sur leurs pages les plus visitées et de l’autre côté, les pages les moins visitées affichent des publicités comportementales ciblées, technique rendue possible grâce aux cookies tiers qui sont la propriété d’une régie publicitaire en ligne (par exemple Weborama ou DoubleClick) qui profite des informations de navigation de l’internaute sur tous les sites affiliés à cette régie. Ces entreprises sont souvent inconnues du grand public et s’échangent les données des internautes pour compiler des informations souvent à la limite de la légalité, se protégeant derrière le consentement qu’a donné l’internaute à travers l’acceptation de Conditions générales d’utilisation (CGU) illisibles et jamais lues, comme le rappelle Dominique Cardon. Pour lui, « l’insertion du cookie tiers dans les mondes numériques est attentatoire au principe de respect des données personnelles » et « il devient urgent que les régulateurs imposent des règles beaucoup plus dures et exigent des internautes un consentement vraiment éclairé »13.

2. Chapitre 2 : La révolution dans les calculs

Ce deuxième chapitre s’intéresse particulièrement aux « trois secousses » qui ont modifié la manière dont nos sociétés se représentent à travers leurs chiffres. D’une approche plus sociologique, il s’agit de montrer que la manière dont on calcule les données a un impact sur la société.

  • La première secousse provient du déplacement de la position du calculateur, comme expliqué dans le chapitre précédent. La conséquence de ces changements de position fait que la société adapte son comportement aux informations statistiques qui sont données sur elle. Les acteurs sont désormais devenus des calculateurs-stratèges et cherchent à orienter leurs actions en direction des effets qu’elles auront sur la mesure. Le réel est devenu manipulable et les instruments statistiques servent à agir sur lui et non plus à le représenter.
  • La deuxième secousse correspond au fait que les catégories socioprofessionnelles (CSP) et les techniques d’analyse des données établies par les sociologues et les statisticiens dans les années 1970 ne sont plus adaptées à la société. Les individus refusent désormais de se laisser enfermer dans des catégories trop générales et restrictives depuis que l’espace public numérique a rendu possible la libération des subjectivités, que leurs modes de vie se sont individualisés et que leurs opportunités sociales ont augmenté, leur permettant ainsi de diversifier largement leurs centres d’intérêts et de varier leur consommation.
  • La troisième et dernière secousse est liée à la possibilité qu’ont désormais les calculateurs de chercher des corrélations entre des données sans se préoccuper des causes qui les expliqueraient. S’appuyant sur le constat qu’on peut enregistrer précisément ce que font les gens mais qu’on ne saura jamais pourquoi ils le font, les algorithmes « apprennent » maintenant à déceler des informations et à prédire des comportements en trouvant des corrélations entre variables d’achats dans différents corpus de consommateurs : ils élaborent un modèle à partir d’un premier corpus pour prédire un événement dans le deuxième corpus.

3. Chapitre 3 : Les signaux et les traces

Dans ce troisième chapitre, Dominique Cardon aborde la mathématisation de notre monde social rendu possible par la libération et la prolifération des données et surtout, par leur calcul à travers les algorithmes.

L’auteur déconstruit tout d’abord trois idées importantes : la première concerne l’accessibilité des données, la deuxième le concept de donnée brute et la troisième le mythe de la machine intelligente.

  • Malgré la numérisation, les données sont en fait difficilement accessibles car peu structurées et sans contexte. Seules les administrations, les entreprises ou les géants du web (Google, Facebook, Amazon, Twitter) possèdent des bases de données pertinentes et exploitables dont l’accès est de plus en plus rendu payant.
  • Les données brutes n’existent pas car elles émanent toutes d’un contexte. Ignorer leur contexte de production en croisant des données issues de contextes différents « risque de produire plus de contresens que de connaissance »14.
  • Les recherches et les essais allant dans le sens de la fabrication d’une machine intelligente dans les années 1980 ont laissé place à l’élaboration de « machines statistiques ». En effet, plutôt que de créer des machines capables de « comprendre » ce qu’elles lisent par exemple, il s’avère plus efficace de concevoir des machines capables de comparer ou de croiser des masses importantes de données afin d’aider à la prise de décision. C’est pourquoi, connaître la manière dont sont fabriqués les algorithmes est un objectif vain puisque les calculateurs, dont les capacités permettent de tester plusieurs milliers d’hypothèses en même temps et de prendre en compte plusieurs théories, révisent en permanence leurs paramètres. Il vaudrait donc mieux connaître les données prisent en comptent dans la composition du calcul.

L’auteur distingue ensuite deux types de données au sein des big data : les signaux informationnels (contenus explicites, informations ou expressions subjectives tel un statut Facebook par exemple) et les traces de comportement (contenus implicites comme les clics, la vitesse de lecture, la géolocalisation…). Les algorithmes les plus efficaces du web (le PageRank de Google ou bien encore le système de recommandation d’Amazon) sont ceux qui associent le plus efficacement les signaux et les traces.

Dominique Cardon passe ensuite en revue certaines critiques adressées aux algorithmes.

  • L’algorithme de Facebook placerait l’utilisateur dans une « bulle », fermerait sa fenêtre sur le monde en réduisant son univers à celui de ses amis et donc souvent, de ses semblables. Cependant, de nombreuses études sociologiques ont montré que les individus s’enferment d’ « eux-mêmes en obéissant aux régularités comportementales qui sont inscrites dans leur socialisation »15. Les algorithmes ne feraient alors que reproduire nos comportements naturels.
  • Les calculateurs situés à côté du web (mesure d’audience) ou dans le web (mesure de réputation) peuvent parfois être « accusés de déformer, trahir ou censurer la représentation « vraie » ou « neutre » de la réalité »16, d’autant plus qu’ils sont également eux-mêmes manipulables. En effet, des robots cliqueurs peuvent augmenter artificiellement l’audience des sites, de faux comptes Facebook ou Twitter peuvent venir gonfler artificiellement les compteurs d’autres comptes, et avec eux leur notoriété, ou encore de faux avis de consommateurs peuvent être achetés par certains commerçants.
  • Concernant les calculateurs situés au-dessus du web (mesure d’autorité), il est impossible de vérifier leur « neutralité ». Cependant, Dominique Cardon précise qu’il est important de demander aux plateformes du web qu’elles respectent l’obligation de loyauté envers les utilisateurs. Par exemple, Google ne devrait pas pouvoir privilégier ses propres services dans son classement alors qu’ils ont moins d’autorité que d’autres. Le travail de hiérarchisation des informations des algorithmes est essentiel mais il est indispensable pour l’auteur que l’ « on puisse vérifier, en toute indépendance, que des intérêts cachés, des déformations clandestines ou des favoritismes n’altèrent pas le service rendu »17.
  • Les calculateurs placés sous le web (mesure de prédiction) sont plus difficilement critiquables. Ils agissent de façon souterraine et leurs résultats ne sont pas comparables puisque personnalisés. Mais en s’appuyant sur le comportement des internautes, les algorithmes prédictifs contribuent à la reproduction de l’ordre social, des inégalités et des discriminations.

4. Chapitre 4 : La société des calculs

Dans ce quatrième et dernier chapitre, l’auteur nous dévoile les rêves des algorithmes, en se basant sur la typologie des calculateurs présentée dans le premier chapitre. Il met l’accent sur la dimension politique de son travail en s’intéressant particulièrement au type de société qui rend possible l’essor des algorithmes.

Avant d’évoquer les rêves, Dominique Cardon revient sur l’idée que les calculateurs permettraient de libérer la société de la « tyrannie du centre », c'est-à-dire libérer les individus des catégories sociales traditionnelles et des prescriptions d’une petite élite composée d’intellectuels, de journalistes ou d’hommes politiques. Certes, les nouveaux calculs font que la popularité et l’autorité sont concurrencées par la réputation et la prédiction, ce qui permet la circulation de nouvelles formes d’informations, la libération des contenus et la mise en place de publicité personnalisée. Mais, pour l’auteur, ces changements continuent de produire des effets de centralité très forts. En effet, la « tyrannie du centre » est non seulement renforcée par le phénomène de coordination d’attention virale (nombre de vues élevées sur le web, relais massif sur les réseaux sociaux…) mais elle est également accentuée par les mesures d’autorité. Ces mesures, dont le PageRank de Google est le plus illustre représentant, promeuvent un monde méritocratique qui accorde une visibilité disproportionnée aux sites web les plus reconnus (moins de 1 % des acteurs du web obtiennent plus de 90 % de la visibilité), reproduisant ainsi les inégalités sur le web.

Les rêves des algorithmes sont dévoilés et explicités tout au long de ce chapitre. Se basant sur la typologie des quatre grandes familles de calculateurs présentée dans le premier chapitre, Dominique Cardon nous les livre un à un. Nous avons choisi, dans un souci de rendre leur lecture et leur compréhension plus claire, de les regrouper et de les synthétiser ici.

  • Le premier de leurs rêves, celui de la famille des calculateurs placés à côté du web qui mesurent la popularité à travers les clics des internautes, est celui d’un monde où « les mécanismes de production de la popularité seraient transparents et ouverts à tous »18.
  • Le deuxième, celui des algorithmes placés au-dessus du web qui mesurent l’autorité à travers les citations hypertextuelles, correspond à « un monde où la reconnaissance des « méritants » ne serait pas entravée : ils [les algorithmes] veulent désigner les excellents et valoriser les meilleurs »19.
  • Leur troisième rêve, celui des machines de calcul placées dans le web pour mesurer la réputation sur les réseaux sociaux à travers les échanges entre cercles affinitaires, renvoie à l’idée d’« une société dans laquelle ils [les algorithmes] donneraient aux personnes des outils pour que les affinités puissent se reconnaître et s’auto-organiser »20.
  • Enfin, le rêve ultime de la famille des algorithmes placés sous le web afin de prédire de façon personnalisée et efficace les comportements des individus grâce aux traces laissées par eux serait d’ « installer un environnement technique invisible permettant partout et pour tout de nous orienter sans nous contraindre »21. Ils affichent en effet l’ambition de « délester les humains de ce qu’il y a de plus mécanique dans leurs activités, assurant qu’ils les libèrent pour des tâches cognitives plus hautes, plus complexes ou plus ambitieuses »22.

Conclusion

Pour conclure son ouvrage, l’auteur emprunte la métaphore de la route et du paysage dans laquelle l’internaute, déboussolé par la nouvelle navigation induite par Internet et le web, se trouve perdu parmi la multitude de choix qui s’offre à lui. Les calculateurs apparaissent alors comme une solution efficace pour trier les informations abondantes et le guider. Les algorithmes ne sont en somme que des GPS qui nous emmènent vers la destination que nous avons choisie. Cependant, il est vrai qu’ils nous imposent leur route en occultant le paysage. À nous, en les comprenant et en soumettant leurs concepteurs à la critique, de leur demander de « nous montrer et la route, et le paysage »23.

Et surtout, gardons à l’esprit que les rêves des algorithmes ne sont que des rêves et que nous ne sommes pas ce qu’ils prétendent percevoir de nous.


Cartographie Algorithme Résumé cartographique



NOTES :


  1. CARDON, Dominique. À quoi rêvent les algorithmes. Nos vies à l’heure des big data. Paris : éditions du Seuil et de la République des Idées, octobre 2015. 105 p. 

  2. CARDON, Dominique. La démocratie Internet. Promesses et limites. Paris : éditions du Seuil et la République des Idées, 2010. 101 p. 

  3. CARDON, Dominique. À quoi rêvent les algorithmes. Nos vies à l’heure des big data. Op. cit., p. 7. 

  4. Ibid., p. 14. 

  5. CARDON, Dominique. Le design de la visibilité. Un essai de cartographie du web 2.0.. * Réseaux*, juin 2008, n°152, pp. 93-137. 

  6. CARDON, Dominique. À quoi rêvent les algorithmes. Nos vies à l’heure des big data. Op. cit., p. 24. 

  7. Ibid., p. 29. 

  8. Ibid., p. 30. 

  9. Idem

  10. Ibid., p. 32. 

  11. Ibid., p. 33. 

  12. Ibid., p. 34. 

  13. Ibid., p. 38. 

  14. Ibid., p. 57. 

  15. Ibid., p. 68. 

  16. Ibid., p. 80. 

  17. Ibid., p. 82. 

  18. Ibid., p. 91. 

  19. Ibid., p. 94. 

  20. Ibid., p. 96. 

  21. Ibid., p. 100. 

  22. Ibid., p. 101. 

  23. Ibid., p. 106.