Facebook défend l’efficacité de son IA dans la lutte contre les discours haineux

Facebook défend l'efficacité de son IA dans la lutte contre les discours haineux

Le vice-président chargé de l’intégrité de Facebook, Guy Rosen, a démenti les affirmations selon lesquelles la technologie d’intelligence artificielle utilisée pour lutter contre les discours haineux n’a que peu d’impact, en déclarant que ce n’était « pas vrai ». Au lieu de cela, il a affirmé que l’occurrence des discours haineux sur Facebook avait diminué de près de 50 % au cours des trois derniers trimestres.

« Nous ne voulons pas voir de haine sur notre plateforme, pas plus que nos utilisateurs ou nos annonceurs, et nous sommes transparents sur notre travail pour la supprimer », a écrit Guy Rosen dans un billet de blog.

« Ce que ces documents démontrent, c’est que notre travail d’intégrité est un parcours de plusieurs années. Bien que nous ne serons jamais parfaits, nos équipes travaillent continuellement à développer nos systèmes, à identifier les problèmes et à construire des solutions. »

publicité

Réduire la distribution d’un contenu

Le post de Guy Rosen était en réponse à un article du Wall Street Journal qui rapportait, sur la base de documents internes ayant fait l’objet d’une fuite, que la technologie d’IA du géant des médias sociaux créée pour supprimer les contenus offensants tels que les discours haineux et les images violentes n’a eu que peu de succès.

Le rapport souligne qu’une équipe d’employés de Facebook a estimé en mars que les systèmes d’IA supprimaient les messages qui généraient 3 à 5 % des vues de discours haineux sur la plateforme, et 0,6 % de tous les contenus qui violaient les politiques de l’entreprise contre la violence et l’incitation.

Toutefois, Guy Rosen a déclaré que « se concentrer uniquement sur les suppressions de contenu n’est pas la bonne façon d’envisager la manière dont nous combattons les discours de haine. En effet, l’utilisation de la technologie pour supprimer les discours haineux n’est qu’un moyen parmi d’autres de les contrer. Nous devons être certains qu’un contenu est un discours de haine avant de le supprimer », a-t-il ajouté.

« Si quelque chose peut être un discours de haine mais que nous ne sommes pas suffisamment convaincus qu’il répond aux critères de suppression, notre technologie peut réduire la distribution du contenu ou ne recommandera pas les groupes, les pages ou les personnes qui publient régulièrement du contenu susceptible de violer nos politiques. Nous utilisons également la technologie pour signaler le contenu pour un examen plus approfondi. »

Taux de détection proactive

Au lieu de cela, il a souligné que Facebook mesure son succès en fonction de la prévalence des discours haineux que les gens voient sur sa plateforme, déclarant qu’il n’y a que cinq vues pour 10 000 sur sa plateforme. « La prévalence nous indique quel contenu violant les gens voient parce que nous l’avons manqué. C’est la façon dont nous évaluons le plus objectivement nos progrès, car elle fournit le tableau le plus complet », a-t-il déclaré.

Le vice-président chargé de l’intégrité a également profité de l’occasion pour souligner que le rapport du WSJ avait « mal interprété » son taux de détection proactive, une autre mesure que l’entreprise est censée utiliser pour indiquer dans quelle mesure sa technologie est capable de trouver du contenu offensant avant que les gens ne le signalent à l’entreprise.

« Lorsque nous avons commencé à publier nos mesures sur les discours haineux, seuls 23,6 % des contenus que nous supprimions étaient détectés de manière proactive par nos systèmes ; la majorité de ce que nous supprimions était découverte par des personnes. Aujourd’hui, ce chiffre est supérieur à 97 % », a déclaré Guy Rosen.

Facebook veut contrer les accusations

Facebook a récemment déclaré qu’il avait fait des progrès dans son IA utilisée pour aider à la modération du contenu, notamment en introduisant son “Reinforcement Integrity Optimizer” (RIO), qui guide un modèle d’IA pour apprendre directement à partir de millions de contenus actuels afin d’évaluer dans quelle mesure il fait son travail.

Ce billet de Rosen est la dernière déclaration publiée par Facebook, qui tente de dissiper les affirmations cinglantes sur ses activités. Au début du mois, le PDG Mark Zuckerberg a répondu publiquement aux allégations selon lesquelles le géant des médias sociaux privilégie le profit au détriment de la sécurité et du bien-être, affirmant que ce n’était « tout simplement pas vrai ».

« L’argument selon lequel nous diffusons délibérément des contenus qui mettent les gens en colère pour faire du profit est profondément illogique », a-t-il déclaré.

Cette réponse est intervenue après que la dénonciatrice de Facebook, Frances Haugen, a témoigné devant le Sénat américain dans le cadre de son enquête sur les activités de Facebook, accusant le géant des médias sociaux de cacher intentionnellement des informations vitales au public dans un but lucratif. Lors de son témoignage, elle a qualifié l’entreprise de « moralement en faillite » et a estimé que « les choix faits au sein de Facebook » étaient « désastreux pour nos enfants, notre vie privée et notre démocratie ».

Source : ZDNet.com

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading