Les contenus controversés sont détectés sur Facebook grâce à l’intelligence artificielle ou parce qu’ils sont signalés par des utilisateurs.

Les contenus controversés sont détectés sur Facebook grâce à l’intelligence artificielle ou parce qu’ils sont signalés par des utilisateurs. Dado Ruvic / REUTERS
Mark Zuckerberg, le fondateur de Facebook, a annoncé jeudi 15 novembre la création d’une sorte de « cour d’appel » indépendante dont la mission sera de statuer sur les contenus controversés postés sur le réseau social : resteront-ils en ligne ou non ?

Cette annonce est intervenue au cours d’une téléconférence durant laquelle M. Zuckerberg a surtout dû s’expliquer sur les révélations du New York Times sur l’emploi par Facebook d’une société de relations publiques aux méthodes controversées, dont il a reconnu qu’elle n’aurait jamais dû être mandatée.

Lire aussi Facebook accusé dans une enquête du « New York Times » d’avoir participé au dénigrement de George Soros

Au-delà de cette énième polémique, M. Zuckerberg et son équipe ont annoncé qu’ils avaient augmenté la capacité du réseau social à détecter les « messages haineux » de toute nature. Facebook est régulièrement accusé de toutes parts de ne pas faire assez pour supprimer ces messages et a reconnu par exemple avoir été trop lent à réagir à la propagande de l’armée birmane sur son site contre la minorité rohingya.

« Je suis arrivé à la conclusion que nous ne devrions pas prendre tout seuls autant de décisions sur le thème de la liberté d’expression ou de la sécurité », a expliqué le fondateur du réseau.

« Trouver l’équilibre »

Ces contenus controversés détectés grâce à l’intelligence artificielle ou parce qu’ils sont signalés par des utilisateurs sont passés en revue grâce à un système en interne qui monte en puissance. Mais une sorte de « cour d’appel », qui devrait être mise en place l’année prochaine, sera chargée de trancher en cas de contentieux. La composition de cette dernière tout comme son degré d’indépendance, tout en respectant les principes qui guident Facebook, seront déterminés dans les mois qui viennent.

Lire aussi La France et Facebook vont collaborer pour lutter contre la haine sur le réseau social

A partir de l’année prochaine, le groupe va aussi publier tous les trois mois un rapport sur les contenus qui ont été écartés du site. Un rythme équivalent à celui de la publication des résultats financiers et un moyen de montrer que l’entreprise prend le sujet au sérieux.

« Nous avons fait des progrès pour effacer la haine, le harcèlement et le terrorisme de notre réseau (…) [mais] il nous faut trouver l’équilibre entre donner aux gens un porte-voix et assurer qu’ils sont en sécurité. »

Facebook « s’améliore dans l’identification des contenus problématiques avant que quelqu’un ne les signale, en particulier pour les discours haineux et les publications violentes », souligne l’entreprise.

Mark Zuckerberg a aussi indiqué que son réseau, régulièrement moqué pour être trop prude, allait tenter de tenir compte des spécificités culturelles et de sensibilités régionales pour prendre ses décisions. Un sein nu qui peut choquer dans une société conservatrice n’aura pas le même effet dans un environnement plus libéré.

Voir les réactions

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.