Temps de lecture : 6 minutes

Dans un entretien pour « La Data en Clair », Guillaume Chaslot, co-fondateur d’AlgoTransparency et ex-salarié de Youtube, dénonce les dérives des systèmes de recommandations vidéos, « basés quasi-exclusivement sur le temps de visionnage », et appelle à un « éveil collectif » sur la transparence des algorithmes.


Pouvez-vous vous présenter et expliquer rapidement en quoi consiste AlgoTransparency ?

Je m’appelle Guillaume Chaslot, j’ai travaillé trois ans à Google dont dix mois à Youtube sur le système de recommandation des vidéos. Je me suis rapidement rendu compte que les algorithmes qu’on produisait présentaient des biais naturels, comme enfermer l’utilisateur dans des « bulles filtrantes ». Afin d’étudier ces biais, j’ai développé un algorithme qui permet de voir les vidéos les plus suggérées suite à une recherche Youtube.

L’objectif d’AlgoTransparency est d’informer les citoyens sur l’impact des algorithmes qui déterminent et façonnent notre accès à l’information. Les premières expériences ont été réalisées à l’occasion des élections américaines de 2016 puis des élections françaises en 2017.


En prenant l’exemple des élections américaines, pouvez-vous justement expliquer en quelques mots la méthode utilisée pour arriver à vos conclusions ?

L’idée était de partir de recherches Youtube avec le nom des candidats, « Clinton » et « Trump », de prendre les cinq premiers résultats de recherche pour chacun, puis les cinq premières recommandations pour tous ces résultats, puis encore les cinq premières recommandations de ces recommandations, et ainsi cinq fois de suite. Ce processus a été reproduit plusieurs centaines de fois à 12 dates différentes, à chaque fois avec un nouveau compte, donc neutre. A la fin, nous avons compté les vidéos les plus recommandées et les avons affichées sur notre site.

Les résultats de l’étude ont montré que l’algorithme de Youtube était encore plus biaisé que ce que je pensais ! Les vidéos avantageant Donald Trump étaient environ 6 fois plus nombreuses que celles sur Hilary Clinton. Plus précisément, nous avons pu noter que l’algorithme favorise les contenus sensationnels, qui pousse l’utilisateur à rester le plus longtemps sur la plateforme.


Quelles sont les raisons qui vous ont poussé à créer AlgoTransparency ?

J’ai écrit un premier article de blog fin 2016 à propos de l’impact de l’algorithme de recommandation de Youtube sur les élections américaines. Il est passé inaperçu à l’époque, sauf au sein de la communauté « tech » de la Silicon Valley dans laquelle je sais, via mes ex-collègues, que l’article est remonté très haut. Cependant, personne n’y a réagi. Au début je ne comprenais pas cette absence de réaction.

Avec le recul, toute la « tech » était en feu au moment des élections présidentielles, et la façon la plus simple de réagir pour eux a été de nier leur part de responsabilité. Google est toujours dans cette mentalité, même à l’heure actuelle. Ils considèrent impossible que leurs algorithmes aboutissent à des résultats si dérangeants. La raison est simple : avec leurs critères de performance actuels, basées quasi-exclusivement sur le temps de visionnage, ils ne peuvent pas mesurer l’ampleur du problème. Chez Youtube, toute l’entreprise travaille pour maximiser le temps de vue. Ce ne sont pas des gens avec de mauvaises intentions, mais la façon dont est structurée l’entreprise qui ne les incite pas à changer leurs critères d’évaluation.


Suite à la couverture médiatique de vos travaux, avez-vous contacté YouTube ?

Youtube ne m’a pas contacté directement. De manière générale, ils font la sourde oreille à chaque fois en refusant de discuter avec les personnes qui les critiquent. Ils ont essayé de faire en sorte qu’une enquête du Guardian, basée sur mes expériences, ne soit pas publiée en discréditant la méthodologie et les données utilisées. Pourtant, j’avais à disposition les meilleures données sur Youtube disponibles à l’époque. S’il y avait une seule chose de fausse dans mes données, rien ne les empêchait de le pointer du doigt, étant donné qu’ils disposaient des mêmes données.

Lorsque je parle de mes résultats à mes ex-collègues de Youtube, ils sont aussi atterrés des vidéos horribles proposées. Néanmoins, ils pensent que l’algorithme est seulement le reflet du comportement des utilisateurs. Je ne suis absolument pas de cet avis. Par exemple, notre envie pour de la nourritures sucrée, grasse ou salée, par ailleurs utile dans un environnement de rareté, peut nous égarer si nous sommes dans un environnement d’abondance et fortement « marketé ». L’être humain sait au fond que ce n’est pas bon pour lui. Il est ici de même avec notre curiosité naturelle pour le sensationnel, le morbide ou les rumeurs


Avez-vous proposé des modifications à l’algorithme de Youtube pour atténuer ce biais ?

En 2011, j’avais déjà proposé en interne à Youtube de donner plus de contrôle à l’utilisateur sur l’information qu’il voit, par exemple en  « scrollant » les recommandations suggérées, afin qu’il ne se fasse pas entraîner de manière passive dans des groupes de vidéos juteuses pour Youtube, comme celles des théories du complot par exemple. Mais ces correctifs ne permettaient pas de maximiser le temps de visionnage et ils risquaient même probablement de le réduire. Aucun manager n’a voulu donc pousser le projet.


Le fait que les géants de la Silicon Valley n’étaient pas vraiment favorables à Trump n’a-t-il pas pu faire changer les choses suite à vos publications ?

C’est vrai dans un sens. Le jour même de l’article du Guardian, en février 2018, Google a sorti un communiqué dans The Wall Street Journal annonçant qu’il y aurait des modifications sur l’algorithme de Youtube. A présent, il me semble ne favoriser que les sites de news dits « classiques ». Mais quand on sait que le site de news le plus recommandé sur Youtube est Russia Today, on se dit qu’il reste encore beaucoup de chemin à parcourir.


Quelles pourraient-être des solutions aux problèmes de la transparence algorithmique ?

Les GAFA sont comme des paquebots, ils sont difficiles à faire changer de cap sauf en cas d’énorme pression extérieure. Si je suis le seul à me plaindre des vidéos que je vois, Youtube ne voit pas de raison de changer son algorithme.

Nous avons besoin d’une prise de conscience collective sur les algorithmes de recommandations. Youtube gagne environ 0,05€ par heure de visionnage d’un utilisateur. Leur objectif est donc de nous pousser à regarder le plus de contenus possibles. On parle ici de sur-exploitation de l’attention humaine ; c’est assimilable à une forme de pollution.

Le but d’AlgoTransparency est de montrer, de mesurer toute cette pollution en termes d’information, afin que les gens prennent conscience du phénomène. Le fait de savoir cela permet d’être plus méfiant et critique vis-à-vis des recommandations de l’algorithme.


Est-ce qu’il n’y a pas des actions législatives, un cadre coercitif ou des alternatives à mettre en place ?

Tu ne peux pas mettre en place un cadre législatif sans l’accompagner d’un éveil collectif. Les deux actions vont de pair pour agir efficacement.

Nous avons effectivement besoin d’une législation sur la transparence. Selon moi, le coeur du problème, ce n’est pas les « fake news » mais le fait que celles-ci soient recommandés automatiquement par un algorithme qui ne sait pas ce qu’il fait. Si les gens voyaient à quel point l’algorithme amplifie les théories racistes ou fascistes, qui font le plus réagir et maximisent le temps de vue, ils inciteraient Google et Facebook à agir.

Ensuite, il faut des alternatives. Une des meilleurs alternatives du moment est l’extension Chrome « DF Youtube (Distraction Free)« , utilisé par déjà 170 000 personnes. Elle permet à l’utilisateur de paramétrer l’affichage des recommandations, des playlists, des vidéos tendances, etc. Notamment, il est possible, via l’extension, de désactiver « l’Auto-Play », ce qui était par ailleurs la fonctionnalité la plus demandée par les utilisateurs de DF Youtube.

Enfin, j’espère que des starts-up commenceront à développer des modèles de recommandations différents. Dans le cadre d’un éveil collectif,  d’importantes opportunités marché vont apparaître et les investisseurs deviendront plus réceptifs afin de financer ces solutions alternatives. Un peu à l’image de Qwant, le moteur de recherche qui respecte l’anonymat.


Aujourd’hui, AlgoTransparency, accompagné par Data For Good, est devenue une association à part entière. Quels sont ses prochains projets ?

Frédéric Bardolle et Adrien Montcoudiol de Data For Good m’ont effectivement beaucoup aidé à trouver des designers et à lancer le site. Pour les élections présidentielles françaises, nous étions une petite équipe de 5 personnes.

Sur les 2-3 prochains mois, nous allons continuer à nous focaliser sur l’algorithme de Youtube mais d’un point de vue plus général. On peut voir Youtube comme un labyrinthe et je souhaite donner la carte du labyrinthe à l’utilisateur. Il pourra alors savoir dans quelle direction l’algorithme est en train de l’emmener. Je travaille aussi en partenariat avec le Center For Humane Technology sur ces problématiques

A long terme, le but est de ne plus exclusivement se centrer sur Youtube mais de traiter autant d’algorithmes que possible. Il existe déjà des initiatives similaires sur d’autres algorithmes, comme ceux de Facebook ou de Twitter. Cependant, les personnes qui produisent ce genre d’études font souvent partie d’organismes de conseil et la plupart ne rendent pas leurs résultats disponibles sous forme transparente.

J’aimerais aussi aller plus loin sur la thématique de la transparence. Par exemple sur les systèmes de pricing volatiles. Imaginons qu’un utilisateur souhaite commander un VTC et qu’il soit stressé. Il serait peut-être sujet à quelques tremblements qui pourraient être détectés par l’accéléromètre de son smartphone. Une application pouvant y accéder serait donc capable de prendre en compte cette donnée dans l’algorithme de pricing utilisé. Ainsi, l’application pourrait augmenter le tarif d’une course proposé à des utilisateurs détectés comme stressés ou pressés, souvent moins regardant sur le prix fixé. C’est le genre de pratique que je souhaite mettre en lumière.