IA éthique et responsable : comment passer de la théorie à l’action ?

Spread the love
IA éthique et responsable : comment passer de la théorie à l'action ?

Moins de la moitié (48%) des entreprises qui ont réussi à déployer l’IA dans l’ensemble de l’organisation l’ont fait avec une IA responsable, selon une récente étude du Boston Consulting Group. Cet enjeu apparaît comme une priorité pour bon nombre d’organisations, qui font le choix de se doter de labels ou de conseils éthiques dédiés.

C’est le cas d’Orange, qui, le mois dernier, a créé un conseil d’éthique de la data et de l’IA. Composé de onze personnalités reconnues dans le domaine, et présidé par Stéphane Richard, cet organe “consultatif et indépendant” devra poser les grandes principes éthiques encadrant l’utilisation des technologies de data et d’intelligence artificielle par l’entreprise. Ce n’est pas la première démarche d’Orange vers l’IA responsable, puisque que l’an passé la société a obtenu le label GEEIS-AI (Gender Equality Diversity European & International Standard – AI) recompensant ses actions pour promouvoir la diversité et éviter les risques de discrimination dasn les systèmes à base d’IA.

Au-delà de la portée symbolique de ce type d’initiative, les entreprises sont-elles prêtes à passer des principes à l’action ? Pour Dr Léa Samarji, cela ne fait aucun doute : de plus en plus d’entreprises mettent sur le devant de la scène cette dimension éthique appliquée à l’IA. « Il ne suffit pas de développer des algorithmes efficaces, il faut faire attention à la notion d’éthique » déclare la spécialiste de l’IA éthique, en charge de l’offre IA et IoT pour la région EMEA chez Avanade à ZDNet.

publicité

Des datasets plus inclusifs et divers

Pour cette spécialiste, le coupable n’est pas la programmation de l’agent mais les données sous-jacentes. « C’est toujours mieux de se poser de bonnes questions depuis le début, et s’assurer qu’on est dans un développement éthique. » Selon la responsable chez Avanade, deux facteurs clés doivent être pris en compte dès l’amont. Dans la phase de développement, « c’est important qu’un plus grand nombre de personnes y participent. Je pense que cette équipe doit être diverse, composée d’hommes et de femmes, avec une diversité de backgrounds sociaux, et des profils business et tech. Inconsciemment, il faudrait que l’homme donne son propre biais à la machine » soutient Léa Samarji.

L’autre facteur réside dans le dataset d’entraînement. Selon la spécialiste, il est essentiel que ce dataset soit  « le plus inclusif et le plus divers possible ». Pour mieux représenter les nuances sociétales et permettre le développement d’agents virtuels éthiques et inclusifs, elle recommande d’utiliser des sources de données externes, telles que les journaux à grand tirage, les magazines et wikipédia, en complément des sources de données internes des organisations. « L’extraction de données passées est insuffisant, puisque ces données peuvent être biaisées selon la culture de l’entreprise. Il faut ouvrir les datasets d’entraînement pour ouvrir les points de vue » préconise-t-elle.

Au sein d’Avanade, joint-venture entre Accenture et Microsoft, et en partenariat avec la Universidad Francisco de Vitoria à Madrid, Léa Samarji a aidé à concevoir une solution visant à éliminer les problèmes signalés de biais, de malentendus liés à la langue ou encore de prise de décision non éthique dans les outils de conversation basés sur l’IA, tels que les agents vocaux et les assistants. Cette solution est déjà utilisée par le gouvernement de Singapour, qui avait besoin d’améliorer la compréhension du dialecte “singlish” local par ses agents virtuels pour aider les résidents à accéder aux services clés. « Le gouvernement voulait construire des agents virtuels pour discuter avec les citoyens qui parlent plusieurs langues officielles dont l’anglais, le tamoul et le mandarin. Le ‘singlish’ est l’anglais parlé à Singapour, mélange de plusieurs langues locales. Ce dialecte pose des difficultés de compréhension. Or, si on développe un agent virtuel qui maîtrise les autres langues officielles, on exclut une partie des citoyens. On est donc allé entraîner la machine sur le dialecte singlish, et collecter des mots et des phrases pour permettre d’apprendre sur ce dialecte. C’est une manière de mettre en avant l’IA éthique » explique Léa Samarji.

Les biais naturels sont liés à la culture d’entreprise

Les modèles formés sur les ensembles de données des entreprises et des organisations peuvent comporter des biais naturels liés à la culture de l’entreprise, à l’histoire ou encore au ratio de diversité de la main-d’oeuvre, souligne Léa Samarji. En cela, la spécialiste estime qu’« il est plus facile pour une start-up de construire des IA éthiques », même si « les grands groupes ont les moyens d’agir, d’aller collaborer avec des tiers pour aller chercher ces données là ».

En somme, adopter un comportement “éthique” ne va pas de soi. « Cela évolue dans le temps, il n’y a pas de bouton magique pour devenir éthique » estime Léa Samarji. Elle considère comme fondamental de mettre à profit une « phase d’entraînement » pendant laquelle la performance de l’outil est mesurée auprès des utilisateurs. « Si on trouve que l’on n’a pas assez de dataset inclusif, on va continuer à entraîner cet agent virtuel. Avec cette demande de satisfaction, l’utilisateur co-construit la solution. »

Le rapport du Boston Consulting Group a mis en lumière un vrai fossé entre la perception des dirigeants sur la maturité de leur organisation et la réalité de leur avance, et ce pour presque chaque stade de développement. Les entreprises ont tendance aussi à surestimer leur maturité dans ce domaine, alors que près de la moitié (55%) des entreprises pensant avoir réussi à déployer une IA responsable sont, en réalité, à la traîne.

Les entreprises se dotent de chief ethics ou data officers référents

Le BCG observe que près de 70% des entreprises leaders en matière d’IA responsable sont dorénavant dotées d’un référent (chief ethics ou data officer) et d’un comité stratégique pour guider la mise en oeuvre. 

L’IA responsable est dorénavant perçu comme un bénéfice business. « Aujourd’hui, les organisations les plus en pointe en matière d’IA responsable ne le font plus seulement pour mieux anticiper et gérer les risques potentiels. Elles la perçoivent comme un véritable avantage compétitif, que ce soit pour différencier leur marque ou bien accélérer leurs recrutements et développer la fidélisation de leurs employés. Implémenter une IA responsable est la preuve d’une culture d’innovation responsable – une culture souvent soutenue par les objectifs et les valeurs de l’entreprise » déclare Sylvain Duranton, directeur monde de BCG GAMMA et co-auteur de l’étude.

Les leaders de la tech sont encore loin d’être exemplaires, en atteste le départ des deux co-directrices de la cellule d’IA éthique de Google, qui a jeté un grand froid chez les salariés du géant américain. Après avoir mis un terme aux fonctions de Timnit Gebru, codirectrice de cette cellule, Margaret Mitchell, l’autre responsable de cette unité, a elle aussi été licenciée par le géant américain en février. Cette experte en intelligence artificielle éthique qui a déjà travaillé sur les biais du Machine learning en matière de diversité et sur les modèles linguistiques pour la capture d’images, avait pourtant été engagée par Google pour codiriger l’équipe d’IA éthique de la société avec Timnit Gebru il y a seulement deux ans de cela.

Leave a Reply