Messages racistes de policiers sur Facebook : mais que fait la police ?

Messages racistes de policiers sur Facebook : mais que fait la police ?

Depuis la semaine dernière, nul ne peut ignorer que des policiers français aux opinions racistes s’exprimaient depuis des mois librement sur des groupes Facebook. Les groupes “TN Rabiot Police Officiel” et “FDO 22 unis”, dont l’agissement de certains membres a été dévoilé par le site StreetPress, rassemblent a eux deux plus de 17 000 membres. Une enquête préliminaire pour « provocation publique à la haine raciale » et « injure publique à caractère raciste » a été ouverte.

Interrogé en début de semaine, Facebook nous a fait parvenir hier soir la déclaration suivante. « Nous avons retiré plusieurs contenus dans ces groupes car ils ne respectaient pas nos règles et nous sommes reconnaissants envers ceux qui les ont portés à notre attention. Nous répondrons aux demandes d’information des autorités françaises, en conformité avec nos procédures de coopération. »

Il semble donc que Facebook ait précédé à du retrait de contenu, et que certains membres des groupes aient signalé ces contenus. Mais Facebook ne précise pas si cela est fait depuis la publication des articles de presse sur le sujet et si les auteurs de contenus et propos racistes sont passés sous le radar de la plateforme jusqu’alors.

publicité

“Signalements des utilisateurs, administrateurs de groupe et moyens technologiques”

Ce que l’on comprend aussi, c’est que les modérateurs de Facebook travaillent généralement sur du contenu signalé. En conséquence, un groupe Facebook qui comprendrait des personnes ayants les même opinions ne serait jamais inquiété par les modérateurs de Facebook. Et la logique de bulle de filtre mis en place par la plateforme renforce ce phénomène. “Pour faire appliquer ces politiques dans les groupes privés, nous combinons à la fois les signalements des utilisateurs, des administrateurs de groupe ainsi que des moyens technologiques” assure toutefois également la plateforme.

Par moyen technologique, Facebook entend le recours à l’IA pour détecter les contenus nuisibles. Une tendance à la hausse avec la gestion des contenus liés au Coronavirus. Reste que cette pratique engendre de nombreux faux positifs, et Facebook ne communique pas sur les contenus litigieux qui ses équipes ont raté.

Cette technologie “a beaucoup progressé ces derniers mois” assure cependant Facebook. “Entre janvier et mars, plus de 88 % des 9,8 millions de discours haineux que nous avons retirés de Facebook pour violation de nos règles sur les discours haineux ont été détectés de manière proactive par notre technologie, contre 68 % à la même période l’année dernière”.

“1.000 personnes ont quitté” le groupe

StreetPress dans un récent article note que la modération semble de retour sur le groupe « TN Rabiot Police Officiel ». “Plusieurs commentaires révélés par StreetPress ont été supprimés, notamment ceux relatifs à la manifestation en soutien à Adama Traoré”.

Suite au scandale public, StreetPress affirme que “1.000 personnes ont quitté” le groupe. Mais la violence et la publication de contenus racistes continue. « Putain de journaleux de mes couil… Qui ne connaît pas l’expression “Noir de monde” ? Donc il faut l’interdire du langage comme radin comme un juif, c’est ça ? » pouvait-on lire cette semaine sur le groupe.

Mais Facebook semble considérer que la grande majorité des contenus publiés dans les deux groupes de policiers mis en cause ne sont pas en infraction avec sa politique de Standard de la Communauté https://www.facebook.com/communitystandards/. Une politique qui prévaut pour les groupes publics et privés selon Facebook.

“Décider si un groupe entier doit être supprimé est complexe”

“Certains groupes peuvent enfreindre nos règles et lorsqu’un groupe entier enfreint les Standards de la Communauté, nous le supprimons” mentionne Facebook. “Cependant, décider si un groupe entier doit être supprimé ou non est souvent complexe – car les groupes comptent souvent des dizaines, des centaines, voire des milliers de membres et de publications, dont beaucoup ne violent pas nos règles” .

Pour déterminer si un groupe enfreint ses règles ou s’il contient des incidents de violation de contenu, Facebook assure prendre en compte une série de facteurs dont le sujet du groupe, par exemple, si le nom ou la description du groupe comprend un discours de haine ; et si un grand nombre de membres partagent régulièrement des contenus violents.

“Si le groupe ne franchit pas cette ligne, il restera en place, mais nous continuerons à supprimer les publications individuelles” mentionne Facebook.

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading