Une nouvelle étude démontre les risques de biais sexistes des IA de recrutement

Spread the love

Le projet était ambitieux mais il s’est très mal terminé. En 2018, des ingénieurs d’Amazon ont mis au point une IA de recrutement visant à accélérer et améliorer le processus d’embauche. Sauf que très vite, des biais sexistes ont été relevés, forçant la firme de Jeff Bezos à mettre un terme à ce programme.

Plus de deux ans plus tard, les problèmes sont toujours bien présents à en croire une étude menée par des chercheurs de l’Université de Melbourne. Les scientifiques ont tout d’abord donné à 40 recruteurs humains de vrais CV pour des emplois chez UniBank, l’entreprise qui a financé cette expérimentation.

Lutter contre les biais des machines passe aussi par l’éducation des humains

La moitié du jury de sélection a épluché des candidatures où le sexe du candidat était déclaré, tandis que l’autre recevait les mêmes CV où les noms étaient interchangés. Ainsi, comme le précise TheNextWeb, Mark devenait Sarah et Rachel était remplacé par John. Le constat est alors sans appel. Les recruteurs ont systématiquement préféré les CV de candidats aux prénoms masculins, même si ces derniers avaient des qualifications et une expérience similaires à leurs homologues féminines.

Dans la foulée, les scientifiques ont ensuite utilisé ces données pour créer un algorithme de recrutement. Ce dernier a reproduit les préjugés des humains, même lorsque les noms des candidats ont été supprimés.

Fort de ce constat, les chercheurs estiment que pour réduire les risques de biais, les algorithmes de recrutement devraient être plus transparents. Ils jugent également qu’un travail d’éducation doit être mené contre les préjugés des humains, sans quoi ces derniers se répercutent au final sur les machines.

Le problème n’est en tout cas pas nouveau et les spécialistes de l’IA dénoncent notamment les dérives racistes qui peuvent naître de l’utilisation des technologies de reconnaissance faciale.

Leave a Reply