Attentat de Halle : pourquoi les réseaux sociaux n’arrivent pas à empêcher la diffusion de vidéos violentes – Le Parisien

Sept mois après l’attaque dans deux mosquées de Christchurch (Nouvelle-Zélande), une tuerie diffusée en direct sur Facebook, un nouvel attentat a été retransmis sur les réseaux sociaux. Mercredi, quelque 2200 personnes ont ainsi visionné l’attaque antisémite de Halle (Allemagne) diffusée sur la plateforme de streaming Twitch, un site appartenant à Amazon et spécialisé dans le jeu vidéo et l’e-sport.

L ‘auteur de cet attentat contre une synagogue, qui a fait deux morts et deux blessés graves, a donc diffusé ses crimes sur Internet pendant 35 longues minutes. Cinq personnes ont même vu la vidéo en direct. « Nous avons fait au plus vite pour retirer ce contenu, et nous suspendrons tous les comptes qui posteront ou reposteront des images de cet acte abominable », a indiqué une porte-parole de Twitch.

« Une fois la vidéo éliminée, nous avons partagé l’information avec un consortium de notre secteur d’activité pour aider à prévenir la prolifération de ce contenu. Nous prenons cela très au sérieux et nous nous engageons à travailler avec nos pairs, les forces de l’ordre et toutes les parties prenantes pour protéger notre communauté », a souligné Twitch.

Difficile de différencier une vraie attaque d’une scène de film

Reste que la vidéo est toujours accessible, notamment sur Twitter – pourtant membre du Global Internet Forum to Counter Terrorism (GIFCT). Depuis 2017, cette alliance réunit plusieurs géants d’Internet comme Facebook, Microsoft, YouTube et Dropbox (depuis cette année).

Ce jeudi matin, quelques heures après l’attaque de Halle, le GIFCT nous informe avoir « activé le CIP (Content Incident Protocol) »). Les membres du forum indiquent « supprimer activement le contenu lié à cette attaque » et l’avoir partagé dans la base de données du « Hash Sharing Consortium ».

Cette ressource recense les données chiffrées de milliers de vidéos illégales : à chaque apparition du contenu sur une plateforme, il est repéré par un hébergeur, qui peut ainsi le supprimer.

Le groupe espère de cette manière empêcher « une diffusion virale » et dit « rester déterminé à interrompre la diffusion en ligne de contenus violents et extrémistes. »

Les outils d’intelligence artificielle ont besoin de quantités énormes de données (ici, des images de fusillades) pour pouvoir apprendre à les identifier correctement, les trier et in fine les supprimer. Mais il est difficile pour le « cerveau artificiel » de différencier une vraie attaque d’une scène de film ou de jeu vidéo.

30 000 modérateurs pour Facebook

Pour faire évoluer ses outils, Facebook s’est par exemple associé à la police londonienne et utilise les images des caméras portées par les unités de la « Metropolitan police » lors de leurs entraînements.

Des algorithmes scannent les contenus pour détecter les sujets interdits (des listes de mots proscrits, des attributs prohibés). C’est parfois même l’humain qui vérifie, car certains contenus sont sujets à interprétation. Facebook emploie ainsi 30 000 opérateurs multilingues dans le monde qui analysent les publications signalées par les utilisateurs.

Mais « les algorithmes de filtrage n’ont jusqu’à présent pas été très bons pour détecter de la violence en streaming en direct. », souligne auprès de l’AFP Jillian Peterson, professeur de criminologie à la Hamline University de Saint Paul, dans le Minnesota. Comprendre : il est plus facile pour la machine de réagir après coup qu’au moment même de la diffusion.

Ce jeudi, la vidéo de l’extrémiste allemand apparaît toujours sur Twitter. « Depuis sa création, ce réseau social est un fervent défenseur de la liberté d’expression, nous explique, Steve Bonet, directeur de la communication chez Atchik, société spécialisée dans la modération sur les réseaux sociaux. Seuls les contenus signalés par les internautes sont censurés. » Contacté, Twitter n’a pas souhaité s’exprimer.

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading