Facebook se dote d’un conseil de surveillance des contenus pour trancher sur les litiges importants

Facebook se dote d'un conseil de surveillance des contenus pour trancher sur les litiges importants

Le réseau social, longtemps critiqué pour sa gestion des contenus, dévoile la composition de son nouveau conseil de surveillance international, composé entre autres d’une ancienne Première ministre, un lauréat du prix Nobel de la Paix et plusieurs experts en droit constitutionnel, a annoncé mercredi la firme américaine. Facebook a dévoilé pour l’heure l’identité des 20 premiers membres du conseil qui en comptera 40 à terme.

Sur le papier, le casting fait rêver. Les quatre co-présidents à sa tête, l’ancien juge fédéral américain Michael McConnell, l’expert en droit constitutionnel Jamal Greene, l’avocate colombienne Catalina Botero-Marino et l’ancienne Première ministre danoise Helle Thorning-Schmidt, auront la lourde tâche de désigner (conjointement avec Facebook, bien sûr) les autres membres du conseil.

Ce conseil, que certains qualifient de “Cour suprême” du réseau social, supervisera certaines décisions de modération de la plateforme, et sera mesure d’annuler des décisions de Mark Zuckerberg. Les travaux du conseil seront centrés sur des questions délicates, comme le contenu à caractère haineux, le harcèlement et la sécurité publique, qui font l’objet d’une attention politique très soutenue. Hasard de calendrier, la proposition de loi Avia visant à lutter contre la haine sur internet, qui cristallise ces débats en France, sera présentée en lecture définitive à l’Assemblée nationale la semaine prochaine, et plus précisément mercredi 13 mai prochain à partir de 15h.

En octobre dernier, rappelons qu’une décision de justice européenne avait haussé d’un cran les contraintes qui pèsent sur la politique de modération de la plateforme, en déclarant qu’un contenu jugé illicite dans un pays devra également être supprimé dans tous les pays.

publicité

Casting crédible ?

Interrogé par Reuters, Nick Clegg, directeur des affaires mondiales de Facebook, a assuré que la crédibilité du conseil “s’obtiendrait avec le temps”. Pour lui, il ne fait aucun doute que ce conseil marque en tout cas “un changement fondamental dans la manière dont seront prises certaines des décisions les plus difficiles et les plus importantes concernant le contenu sur nos plateformes” déclare-t-il dans une note de blog.

“Avec notre taille vient une grande responsabilité et bien que nous ayons toujours suivi les conseils des experts sur la meilleure façon de maintenir la sécurité de nos plateformes, jusqu’à présent, nous avons pris les décisions finales sur ce qui devrait être autorisé sur nos plateformes et ce qui devrait être supprimé. Et ces décisions ne sont souvent pas faciles à prendre – la plupart des jugements n’ont pas de résultats évidents ou non controversés, et pourtant beaucoup d’entre eux ont des implications importantes pour la liberté d’expression” poursuit-il.

Une charte finale viendra établir “la structure, la portée et l’autorité du conseil d’administration”, précise-t-il. Si le travail que devra accomplir le conseil est immense, les premiers cas devrait être étudiés au cours de l’été.

Depuis l’affaire Cambridge Analytica, Facebook s’est acharné à faire pénitence sur les enjeux de transparence. Le PDG du réseau social a défendu à de nombreuses reprises l’importance d’une réglementation plus stricte pour restaurer la confiance de l’internet. En février dernier, il avait notamment soutenu publiquement une réglementation intermédiaire pour les contenus en ligne, qui se situeraient entre les opérateurs télécoms qui distribuent les contenus et les médias qui les fournissent.

Le cas d’école du coronavirus

Même si Facebook aimerait montrer patte blanche, difficile pour autant d’effacer certaines bavures qui lui sont reprochées, à l’image de la diffusion de la vidéo de l’attaque de Christchurch par le terroriste en direct sur la plateforme Live de Facebook. A l’occasion de l’appel de Christchurch en 2019, le réseau social avait pourtant dévoilé de nouvelles mesures visant à mieux contrôler les contenus diffusés, notamment sur son service Facebook Live, auparavant coutumier du système de signalement et d’avertissements avant de sanctionner un utilisateur.

La firme américaine tente aussi d’améliorer ses outils de détection automatisée des contenus allant à l’encontre de ses conditions générales d’utilisation.

Soucieux d’agir contre les fake news, le réseau social a redoublé d’efforts face au coronavirus, en mettant en place un nouveau dispositif pour mieux informer ses utilisateurs concernant la pandémie de coronavirus et alertant les utilisateurs lorsqu’ils ont interagi avec des contenus fallacieux. Mais la crise sanitaire a vu naître aussi une autre forme de censure, certains utilisateurs du réseau social se plaignant de la disparition de leurs messages Facebook relatifs au Coronavirus.

Un chamboulement des règles “anti-spam” a été également accentué par l’incapacité pour certains modérateurs de contenu de travailler à domicile, en raison des engagements de confidentialité pris par l’entreprise, avait avancé Alex Stamos, l’ancien responsable sécurité de Facebook en mars dernier. Car sous le vernis du conseil de surveillance prestigieux dont Facebook vient de se doter, ce sont bien eux, ces milliers de modérateurs humains, qui sont en première ligne de la politique de modération de la plateforme et ses 2,5 milliards d’utilisateurs, confrontés chaque jour à des contenus violents, haineux voire pornographiques dans des conditions de travail que beaucoup jugent intenables.

Leave a Reply

Your email address will not be published. Required fields are marked *