Facebook se glisse dans la peau des escrocs

Facebook se glisse dans la peau des escrocs

C’est le fléau de tout chercheur en sécurité : quelle que soit la sophistication de l’outil pour combattre les comportements nuisibles sur une interface donnée, les pirates s’adapteront toujours, augmenteront leur jeu et trouveront de nouvelles façons de contourner le mécanisme.

Afin de devancer les arnaqueurs, Facebook tente une nouvelle approche : déclencher une armée de robots sur une version de la plateforme, chargés d’actions nuisibles – afin que les robots contrôlés par Facebook puissent découvrir les failles avant même que les véritables arnaqueurs ne les atteignent.

La technologie fonctionnera dans une version alternative de Facebook, appelée WW, pour refléter le fait que le système est une version réduite du World Wide Web (WWW).

publicité

Une infrastructure web bien réelle

Contrairement aux simulations traditionnelles, dans lesquelles les robots simulés travailleraient sur une plateforme simulée, WW est construit sur la plateforme logicielle du monde réel de Facebook. L’équipe d’ingénieurs de la société a mis au point une méthode appelée “Web-Enabled Simulation” (WES), qui consiste à effectuer des simulations sur des infrastructures web réelles, plutôt qu’artificielles, afin de mieux refléter les interactions réelles et le comportement social des utilisateurs.

En utilisant WES, les ingénieurs de Facebook ont construit WW – une version parallèle de la plateforme de médias sociaux – complète avec Messenger, les profils, pages et demandes d’amis inopportunes, mais exclusivement réservée aux bots.

Mark Hartman, chercheur sur Facebook, a présenté cette technologie lors d’un webinaire : « les simulations ont lieu sur les dizaines de millions de lignes de code qui composent l’infrastructure de Facebook. Les robots utilisent tous les mêmes logiciels et outils qu’un utilisateur utiliserait sur la plateforme ». Et ajoute : « cela signifie que les résultats de la simulation sont beaucoup plus proches de la réalité de ce qui se passe sur la plateforme, et des nombreuses subtilités où des comportements nuisibles peuvent se produire ».

Maintien d’une distance de sécurité

Les robots fonctionnent donc dans un environnement très proche de celui des utilisateurs réels de la plateforme, mais une distance de sécurité a été judicieusement maintenue. Les actions des robots sont soigneusement limitées, et les ingénieurs ont mis en place une couche de confidentialité et une couche de mécanismes d’interaction pour séparer les deux mondes.

L’équipe de Mark Hartman se concentre actuellement sur l’utilisation des bots pour simuler le comportement des escrocs, pour savoir si les mécanismes de détection sur Facebook sont suffisamment bons, mais aussi pour découvrir les nouvelles façons dont ils pourraient tenter d’extorquer de l’argent à des inconnus.

Les arnaqueurs de la vie réelle fouillent généralement sur la plateforme de médias sociaux jusqu’à ce qu’ils trouvent une cible. Ainsi, dans la même veine que pour le développement de jeux, l’équipe d’ingénieurs a recréé un scénario dans lequel des robots innocents simulent des interactions avec des robots qui sont récompensés pour avoir fouillé et acquis un autre agent qu’ils peuvent arnaquer.

Mark Hartman explique que plusieurs méthodes ont été utilisées pour entraîner les bots. Elles vont de l’ancienne approche, basée sur des règles, dans laquelle les robots choisissaient d’effectuer des actions comme l’envoi d’une demande d’ami sur la base d’un ensemble de règles prédéterminées, à l’apprentissage non supervisé, dans lequel les robots reçoivent les critères de récompense mais pas les règles pour y parvenir.

Un projet encore en phase de recherche

L’apprentissage supervisé faisait également partie du programme : à l’aide de données anonymes, les chercheurs ont défini des modèles de comportement réel des utilisateurs et ont formé les robots à les imiter. « Il existe une relation étroite avec le jeu assisté par l’IA », a déclaré Mark Hartman. « Les joueurs de jeux simulés sont un peu comme nos robots. Nous automatisons le processus pour rendre le jeu toujours plus difficile, parce que nous voulons le rendre plus difficile pour les mauvais acteurs potentiellement sophistiqués et bien qualifiés. »

Du point de vue de l’ingénierie, le projet est ambitieux, et encore en phase de recherche, souligne Mark Hartman. Il espère que ce n’est qu’une question de mois avant que l’initiative WW ne prenne vie, même s’il admet que des recherches supplémentaires sont nécessaires dans divers domaines tels que le machine learning, la théorie des graphes ou le jeu assisté par l’intelligence artificielle.

Cependant, si le projet devait se réaliser à grande échelle, l’équipe de recherche prévoyait une augmentation significative de la défense de Facebook dans la guerre contre les comportements nuisibles. « Les robots, en théorie, peuvent faire des choses que nous n’avons jamais vues auparavant grâce à l’apprentissage par renforcement », ajoute Mark Hartman. « C’est quelque chose que nous voulons parce que cela nous permettra d’anticiper le mauvais comportement, plutôt que de le rattraper. »

De plus, grâce à la méthode WES, WW pourrait être reproduit pour tout système web à grande échelle dans lequel le comportement d’une communauté peut être observé. Elle pourrait donc contribuer à alléger les efforts de modération de nombreuses organisations.

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *