Skip to main content

Le data solutionnisme, de la théorie de la boîte noire à la bulle filtrante

 

C’est l’un des problèmes soulevés par Frank Pasquale, professeur de droit à l’Université du Maryland. Il souligne «qu’il est impossible de savoir comment sont régis les algorithmes de Google, car ils sont protégés par le secret commercial. C’est un aspect des moteurs de recherche dont on ne parle pas.» Selon Frank Pasquale, cette donne crée de nouveaux rapports de pouvoir dont il est impossible de s’extirper. Selon lui, nous vivons dans une société de la boîte noire: «Une boîte noire décrit un système dans lequel nous savons quelles sont les informations qui y entrent et ce qui en sort, mais strictement rien des mécanismes et des transformations qui se sont opérés entre les deux, car le fonctionnement interne de la boîte noire reste secret.»

Selon Frank Pasquale, «Google, Facebook et tous les géants de la technologie illustrent à merveille ce système de la boîte noire. La presse les présente comme des modèles d’entreprise. Elle vante les aspects positifs de ces firmes comme les horaires libres, les baby foot etc. Mais on ne sait strictement rien de leur fonctionnement interne, explique-t-il. Tout est protégé par le secret grâce à de redoutables avocats. C’est ça la boîte noire, mais c’est aussi la capacité de ces entreprises à enregistrer la moindre information sur ses employés et ses utilisateurs, comme la boîte noire d’un avion.»

Si Google et les autres poids lourds du numérique font preuve d’opacité, ils travaillent à nous enfermer – nous les utilisateurs, – dans une bulle filtrante. En 2002, l’Américain Eli Pariser, cybermilitant et cofondateur de l’ONG en ligne Avaaz.org est le premier à avoir explicité la subjectivité des algorithmes et leur servitude à leurs maîtres créateurs: Google, Facebook, Apple. Eli Pariser explique que les algorithmes de Google sélectionnent les résultats présentés en fonction des internautes en s’appuyant sur 57 critères différents. Il y a bien sûr l’âge, le sexe, la géolocalisation, le navigateur utilisé, mais aussi la résolution de l’écran, les sites visités, la fréquence des clics, la liste des raccourcis…

Cette personnalisation sert un objectif: permettre aux sites commerciaux partenaires de cibler la publicité en nous proposant en permanence des liens et des sites qui correspondent à nos choix, nos opinions, nos modes de vie. Chez Facebook, l’algorithme EdgeRank détermine la visibilité des pages et des amis partagés sur chaque fil d’actualités en fonction de trois critères: l’affinité et la fréquentation exprimée par le score des «J’aime» et des «Partage» ; la richesse des contenus (photos, vidéos, fréquence) ; la fraîcheur chronologique. Donc si vous êtes un partisan de Donald Trump et que plusieurs de vos amis Facebook le sont aussi, vous ne lirez que du contenu favorable au président élu.

Enfermé dans une bulle, l’internaute ne s’abreuve que d’informations conformes à ses convictions. La dictature algorithmique soulève une dernière question, plus philosophique. Que reste-t-il de notre libre-arbitre si les algorithmes ne sont pas neutres parce qu’ils servent les intérêts politiques, commerciaux, financiers ou militaires? Cette idéologie technique qui vise à soulager les hommes du poids des décisions quotidiennes détruit la confiance que nous pourrions avoir en la société puisque nous sommes programmables et manipulables. Pour l’heure, il reste des humains chez Facebook et Google. Mais le patron, c’est l’algorithme.

Rédaction – Mehdi Atmani – Flypaper Media _ Illustration – Jérôme Viguet – Cartoonbase SÀRL

Cet article est issu du livre “Un regard éclairé sur vingt ans d’innovation”, Softcom a passé le cap de ses 20 ans et a mené un travail de réflexion sur les enjeux du numérique, tels qu’ils ont été vécus ces dernières années, mais aussi et surtout plus prospectifs en évoquant non seulement les opportunités mais également les limites et les risques.

Il résulte de ces travaux un bel ouvrage illustré que nous vous offrons très volontiers.