
Twitter veut réduire sa dépendance à son IA, soupçonnée de cultiver des biais racistes

Les utilisateurs de Twitter rencontrent depuis longtemps des problèmes pour recadrer leurs images sur le réseau social. Pour y remédier, Twitter s’est engagé à tester continuellement ses algorithmes afin de leur donner plus d’options quant à la façon dont les images postées apparaissent sur la plateforme. Cet engagement a été pris après que les utilisateurs ont découvert que l’outil de recadrage favorisait automatiquement les visages blancs au détriment des visages noirs.
« Bien que nos analyses n’aient pas montré de préjugés raciaux ou sexistes jusqu’à présent, nous reconnaissons que la façon dont nous recadrons automatiquement les photos signifie qu’il y a un risque potentiel de préjudice », expliquent le directeur technique de Twitter Parag Agrawal ainsi que le directeur de la photographie du réseau social Dantley Davis dans un article de blog. « Nous aurions dû mieux anticiper cette possibilité lorsque nous avons conçu et construit ce produit pour la première fois », regrettent les deux responsables.
Illustration des errements du réseau social : un utilisateur, Colin Madland, qui est blanc, a découvert cet écueil après avoir publié une image de lui-même et d’un collègue noir sur Twitter. Surprise : la tête de ce dernier a été effacée lors de l’utilisation d’un arrière-plan virtuel sur un appel Zoom. Parce que l’algorithme ne reconnaissait pas son visage, Twitter a automatiquement recadré l’image pour ne montrer que Colin Madland. D’autres utilisateurs ont expérimenté cette faille en comparant une photo du sénateur américain Mitch McConnell et de Barack Obama, découvrant que l’algorithme de Twitter recadrait l’ancien président mais pas le sénateur.
Réduire les biais racistes et sexistes
Les deux dirigeants de Twitter ont indiqué vouloir réduire la dépendance du réseau social à l’utilisation du machine learning pour le recadrage des images, en donnant aux utilisateurs une plus grande visibilité et un meilleur contrôle sur ce à quoi leurs images ressemblent dans un tweet. S’ils ne précisent pas totalement comment Twitter prétend y arriver, ils déclarent toutefois que la plateforme a « commencé à explorer différentes options pour voir ce qui fonctionnerait le mieux ».
« Nous espérons que le fait de donner aux gens plus de choix pour le recadrage des images et l’aperçu de ce à quoi elles ressembleront dans le compositeur de tweet peut aider à réduire le risque de préjudice », déclarent-ils. « Nous effectuons actuellement des analyses supplémentaires pour ajouter plus de rigueur à nos tests, nous nous engageons à partager nos conclusions et nous explorons les moyens d’ouvrir notre analyse afin que d’autres puissent nous aider à rendre des comptes », indiquent également ces derniers, qui devraient rapidement rendre leurs résultats publics.
L’année dernière, Google a annoncé travailler à rendre ses modèles d’intelligence artificielle et d’apprentissage automatique plus transparents pour se défendre contre les préjugés, en utilisant une technologie appelée TCAV. Abréviation de “Testing with Concept Activation Vectors”, cette technologie permet, en théorie, de comprendre les signaux qui pourraient faire apparaître un biais raciste ou sexiste.