Une nouvelle étude épingle l’algorithme de YouTube

Spread the love
Une nouvelle étude épingle l'algorithme de YouTube

L’algorithme de YouTube continue à susciter les critiques. Selon une étude réalisée par la fondation Mozilla, l’algorithme de la plateforme recommande toujours des vidéos que les internautes souhaiteraient ensuite ne pas avoir vues. Celui-ci encouragerait même les utilisateurs à regarder des vidéos qui s’avèrent par la suite avoir violé les politiques de contenu du site, comme le rapporte la fondation.

L’année dernière, celle-ci a lancé RegretsReporter, une extension de navigateur open source qui permet aux utilisateurs de signaler les vidéos qui leur ont été recommandées et qu’ils souhaiteraient ne pas avoir regardées. Lorsqu’ils remplissent un rapport, les utilisateurs sont invités à fournir le titre, la description, le nombre de visionnages et le point d’entrée de la vidéo (recherche directe ou contenu recommandé) ; ils peuvent également fournir à Mozilla une “trace” de la manière dont ils sont arrivés à la vidéo signalée.

10 mois après le lancement de RegretsReporter, 37 380 volontaires ont téléchargé l’extension. Ensemble, ils ont partagé des regrets sur 3 362 vidéos. Une équipe de 41 assistants de recherche a ensuite examiné les vidéos signalées pour tenter d’établir des liens entre le contenu préjudiciable et les modèles de recommandations. Ils ont constaté qu’une proportion écrasante (71 %) de “regrets” provenait de vidéos recommandées par l’algorithme de YouTube. Qui plus est, les vidéos recommandées étaient 40 % plus susceptibles d’être signalées que les vidéos qui avaient été recherchées.

publicité

Un algorithme biaisé ?

Dans près de la moitié des cas, le contenu recommandé par l’algorithme semblait n’avoir aucun rapport avec les visionnages précédents. Un volontaire, par exemple, raconte avoir été encouragé à regarder des chaînes d’extrême droite après avoir recherché des vidéos de survie en pleine nature. L’algorithme a parfois recommandé des messages qui violent les politiques de YouTube. Jusqu’à 200 vidéos qui ont été signalées dans l’extension ont depuis été supprimées – mais seulement après avoir amassé un collectif de 160 millions de vues.

En 2019, Mozilla avait demandé à Google des détails sur le fonctionnement de l’algorithme de recommandations de sa plateforme de streaming vidéo. Avant d’enregistrer une fin de non-recevoir de la part du géant américain. Et malgré une demande répétée, les chercheurs de Mozilla n’ont toujours pas pu accéder aux rouages de la technologie, ce qui a conduit au projet RegretsReport. « YouTube nous indique le nombre de vues d’une vidéo, mais pas le nombre de fois qu’ils ont recommandé cette vidéo », indique à ZDNet Brandi Geurkink, responsable senior du plaidoyer de Mozilla.

« Il est donc très difficile de comprendre le rôle que joue l’algorithme dans les mauvaises expériences que vivent les gens. C’est absolument là que nous devrions mettre l’accent et nous inquiéter – il ne s’agit pas seulement de savoir combien de contenus nuisibles il y a sur la plateforme, mais aussi d’assumer la responsabilité du rôle que leurs outils pourraient jouer dans leur amplification. » RegretsReporter a toutefois ses limites. Il n’existe aucun moyen d’empêcher les utilisateurs de rechercher activement des vidéos nuisibles pour fausser les données, par exemple. Il n’est pas non plus possible de prétendre que quelques dizaines de milliers de spectateurs sont représentatifs de l’ensemble de la base d’utilisateurs de la plateforme.

YouTube dos au mur

« Nous essayons de faire comprendre très clairement que des outils comme celui-ci ne remplacent pas la transparence de YouTube », explique Brandi Geurkink. « Ce que nous faisons, c’est exposer certaines tendances que nous observons et qui, selon nous, ne sont que la partie émergée de l’iceberg. Mais être capable de vraiment comprendre comment ces expériences pourraient se produire à l’échelle de YouTube nécessiterait une transparence de la part de YouTube. Ce qui, selon nous, doit se produire. »

Les défauts dans la méthodologie ne font que souligner la profondeur du problème : sans une transparence appropriée de la plateforme, les chercheurs doivent recourir à des méthodes alternatives, moins fiables, pour essayer de faire la lumière sur la cause profonde du problème.

YouTube, pour sa part, a reconnu que l’algorithme de la plateforme avait besoin d’être corrigé. La société a promis d’apporter des modifications et a récemment lancé plus de 30 changements de politique différents pour réduire les recommandations de vidéos limites, qui, selon elle, ont provoqué une baisse moyenne de 70 % du temps de visionnage pour ce type de contenu.

Source : ZDNet.com

Leave a Reply