Instagram : l’algorithme affiche des vidéos choquantes aux adultes qui suivent des comptes de mineurs

Sur Instagram, les adultes abonnés à des comptes tenus par des mineurs vont voir s’afficher des vidéos dérangeantes via l’algorithme. Encore plus s’ils suivent d’autres abonnés de ces comptes.

Homme choque regarde son smartphone
Crédits : 123RF

Si vous utilisez l’application TikTok, la scène suivante vous est familière : vous regardez une vidéo, puis vous descendez un peu sur la page, tombez sur une vidéo similaire à la première, la lancez, et ainsi de suite jusqu’à ce que vous en ayez assez. L’algorithme du réseau social est étudié pour repérer ce qui vous plaît, en général les contenus que vous visionnez, pour ensuite vous en proposer toujours plus. Le but est de vous faire tomber dans la “spirale du scroll sans fin” afin de vous garder le plus longtemps possible, et donc de vous faire voir plus de publicités.

Ce système, c’est celui qu’à adopté Reels à son arrivée en 2020 sur Instagram. Meta, la maison-mère du réseau social, entre autres, n’a pas chercher à cacher sa volonté de faire comme TikTok, par qui elle se sentait menacée. Contrairement à Facebook par exemple, les recommandations affichées dans Reels ne sont pas des contenus “aimés” ou proposés par les gens de votre liste d’amis. Ils viennent de n’importe quelle source. Les équipes du Wall Street Journal sont partis de ce constat pour réaliser une expérience. Les résultats sont sans appel.

Suivre des comptes de mineurs sur Instagram rend l’algorithme de Reels très étrange

À partir de mobiles tout juste achetés, sans aucun historique préalable, les testeurs se sont abonnés uniquement à des comptes tenus par des mineures : gymnastes, pom-pom girls et autres influenceuses de moins de 18 ans. Ils l’ont fait après s’être rendus compte que les milliers d’abonnés de ces profils étaient en grande majorité des hommes adultes. À partir de là, il ne restait plus qu’à attendre que l’algorithme de Reels propose des vidéos à regarder. Voici un exemple d’enchaînement obtenu.

Lire ausi – Applications de rencontre : les modérateurs sont à bout face aux contenus insupportables

D’abord, une vidéo dans laquelle une personne caresse le visage d’une poupée en latex grandeur nature, puis une publicité pour le site de rencontre Bumble , suivie d’une vidéo d’une jeune femme au visage masqué numériquement. Elle relève son t-shirt pour montrer son ventre. Une autre fois, une pub pour la chaîne de restauration Pizza Hut suit le clip d’un homme allongé sur un lit, le bras autour d’une fille qui selon le texte à l’écran a 10 ans. Déjà dérangeants, ces résultats ne sont que la partie émergée de l’iceberg.

Instagram affiche des vidéos d’adultes à caractère pornographique, d’autres d’enfants dans des situations sexualisées

Pour aller plus loin, les journalistes du WSJ se sont abonnés aux comptes de certaines personnes suivant les profils Instagram de mineures. L’algorithme se met alors à afficher du contenu sans équivoque. Une femme montrant son entre-jambe, une jeune fille habillée caressant son torse, un enfant mimant un acte sexuel… Ces vidéos sont régulièrement entrecoupées de publicités pour des marques bien connues comme Walmart, Disney, l’entreprise de sites de rencontres Match Group et même le Wall Street Journal lui-même.

Contactés, la plupart des annonceurs ont pressé Meta d’agir immédiatement pour corriger le tir. D’autres ont cessé toutes campagnes publicitaires sur Instagram et les autres plateformes du groupe de Mark Zuckerberg. De son côté, la maison-mère a indiqué lancer un audit, payé de sa poche, et mené par une société indépendante. Dans le même temps, elle explique que l’expérience du WSJ ne reflète pas celle des milliards d’utilisateurs du réseau social.

Lire aussi – Un enfant poste une vidéo sur YouTube, la vie de sa mère devient un cauchemar

Parmi les publicités affichées, il y en a pour des centres de massages proposant des services sexuels, des applications de rencontres du même genre ou encore des chatbots IA spécialisés dans le cybersexe. Normalement, Meta interdit ce genre de réclames sur ses services. En parallèle des tests réalisés par le journal américain, le Centre Canadien pour la Protection des Enfants a mené les siens et les résultats sont identiques. L’institution s’inquiète “de la capacité des algorithmes de Meta à recruter de nouveaux membres dans les communautés en ligne consacrées aux abus sexuels sur les enfants, où prolifèrent les liens vers des contenus illicites dans des forums plus privés”.

Leave a Reply

Your email address will not be published. Required fields are marked *