À qui votre algorithme va-t-il nuire ? Pourquoi les entreprises doivent penser l’IA malveillante dès à présent

 À qui votre algorithme va-t-il nuire ? Pourquoi les entreprises doivent penser l'IA malveillante dès à présent

De l’engagement de Google à ne jamais créer des applications d’IA qui pourraient causer des dommages, aux “principes d’IA” de Microsoft, en passant par la défense de l’équité et de la transparence d’IBM dans toutes les questions algorithmiques : les grandes entreprises de technologie promeuvent une IA responsable. Et il semble que les autres entreprises, grandes et petites, suivent le mouvement.

Les statistiques parlent d’elles-mêmes. Alors qu’en 2019, à peine 5 % des organisations avaient élaboré une charte éthique qui définissait la manière dont les systèmes d’IA devaient être développés et utilisés, la proportion a bondi à 45 % en 2020. Des mots clés tels que “agencement humain”, “gouvernance”, “responsabilité” ou “non-discrimination” deviennent des éléments centraux de l’IA de nombreuses entreprises. Le concept de technologie responsable, semble-t-il, fait lentement son chemin de la salle de conférence à la salle du conseil d’administration.

Ce regain d’intérêt pour l’éthique, malgré les dimensions complexes et souvent abstraites du sujet, a été largement motivé par les diverses pressions exercées par les gouvernements et les citoyens pour réglementer l’utilisation des algorithmes. Mais selon Steve Mills, responsable de l’apprentissage machine et de l’intelligence artificielle au Boston Consulting Group (BCG), l’IA responsable pourrait aussi jouer en faveur des entreprises de nombreuses façons. “Les 20 dernières années de recherche nous ont montré que les entreprises qui adoptent les objectifs et les valeurs de l’entreprise améliorent leur rentabilité à long terme”, explique Mills au ZDNet. “Les clients veulent être associés à des marques qui ont des valeurs fortes, et cela n’est pas différent. C’est une véritable chance de construire une relation de confiance avec les clients”.

publicité

Le bad buzz de l’IA touche les grandes entreprises

Le défi est de taille. Au cours des dernières années, il semble que des principes d’IA soigneusement rédigés n’aient pas empêché les algorithmes de porter atteinte à la réputation d’entreprises très en vue. L’algorithme publicitaire de Facebook, par exemple, a été critiqué à plusieurs reprises pour son ciblage, après qu’il ait été constaté que le système d’IA montrait de manière disproportionnée des publicités sur les cartes de crédit et les prêts aux hommes, alors que les femmes se voyaient présenter des annonces d’emploi et de logement.

De même, Apple et Goldman Sachs ont récemment fait l’objet de critiques après avoir reçu des plaintes selon lesquelles les femmes se voyaient proposer des limites de carte de crédit Apple Card plus basses que les hommes, alors que l’algorithme d’une société de santé visant à déterminer qui bénéficierait le plus de soins supplémentaires s’est avéré favoriser les patients blancs.

Ces exemples ne doivent pas décourager les entreprises qui sont prêtes à investir dans l’IA, affirme Mills. “Beaucoup de dirigeants considèrent l’IA responsable comme un moyen d’atténuer les risques”, dit-il. “Ils sont motivés par la crainte d’une atteinte à leur réputation. Mais ce n’est pas la bonne façon de voir les choses. La bonne façon de voir les choses, c’est une grande opportunité de différenciation de la marque, de fidélisation des clients et, en fin de compte, de bénéfices financiers à long terme”.

“La plupart des gens pensent que des entreprises essaient de vous exploiter”

Selon une étude récente de la société de conseil Capgemini, près de la moitié des clients se déclarent confiants dans les interactions avec les organisations qui utilisent l’IA, mais s’attendent à ce que ces systèmes expliquent clairement leurs décisions et à ce que les organisations soient responsables si les algorithmes ne fonctionnent pas.

Pour Lasana Harris, chercheur en psychologie expérimentale à l’University College London (UCL), la manière dont une entreprise présente publiquement ses objectifs et ses valeurs algorithmiques est essentielle pour gagner les faveurs des clients. Se méfier des pratiques des entreprises à but lucratif est une position par défaut pour beaucoup de gens, a-t-il expliqué lors d’un récent webinaire ; et le potentiel intrusif des outils d’IA signifie que les entreprises devraient redoubler d’efforts en matière d’éthique pour rassurer leurs clients.

“La plupart des gens pensent que des entreprises essaient de vous exploiter, et la perception courante de l’IA tend à en découler”, explique M. Harris. “Les gens craignent que l’IA ne soit utilisée pour exploiter leurs données, envahir leur vie privée ou s’approcher d’eux de trop près”.

La fronde des développeurs

“Il s’agit des objectifs de l’entreprise”, a-t-il poursuivi. “Si le client perçoit de bonnes intentions de la part de l’entreprise, alors l’IA sera perçue de manière positive. Vous devez donc vous assurer que les objectifs de votre entreprise sont en phase avec les intérêts de vos clients”.

Il n’y a pas que les clients que les entreprises peuvent conquérir grâce à des valeurs et des pratiques d’IA solides. Ces dernières années, les créateurs d’algorithmes ont également pris conscience du fait que les développeurs de logiciels s’inquiètent de porter le poids de la responsabilité des technologies non éthiques. Si les programmeurs ne sont pas entièrement convaincus que leurs employeurs utiliseront leurs inventions de manière responsable, ils pourraient démissionner. Dans le pire des cas, ils pourraient même en faire un documentaire.

Il n’y a aucun grand acteur technologique qui n’ait pas connu une forme de dissidence des développeurs au cours des cinq dernières années sur le sujet. Les employés de Google, par exemple, se sont rebellés contre le géant de la recherche lorsqu’il a été révélé que l’entreprise fournissait au Pentagone une technologie de reconnaissance d’objets à utiliser dans les drones militaires. Après que certains des rebelles aient décidé de démissionner, Google a abandonné le contrat.

Passer d’un “nice to have”, à un avantage concurrentiel

La même année, un groupe d’employés d’Amazon a écrit à Jeff Bezos pour lui demander d’arrêter la vente de logiciels de reconnaissance faciale à la police. Plus récemment, l’ingénieur en logiciel Seth Vargo a retiré un de ses projets personnels de GitHub après avoir découvert que l’une des entreprises qui l’utilisent avait signé un contrat avec l’ICE (Immigration and Customs Enforcement) des États-Unis.

Les programmeurs ne veulent pas que leurs algorithmes soient utilisés à des fins nuisibles, et les meilleurs talents seront attirés par les employeurs qui ont mis en place des mesures de protection appropriées pour s’assurer que leurs systèmes d’IA restent éthiques. “Les techniciens sont très préoccupés par les implications éthiques de leur travail”, explique M. Mills. “Il sera très important de se concentrer sur cette question si vous voulez, en tant qu’entreprise, attirer et retenir les talents numériques qui sont si essentiels à l’heure actuelle”.

D’un “nice to have”, l’éthique technologique pourrait donc devenir un avantage concurrentiel ; et à en juger par la multiplication récente des chartes éthiques, la plupart des entreprises comprennent le concept. Malheureusement, la rédaction de communiqués de presse et de courriels à l’échelle ne suffira pas, explique M. Mills. Combler le fossé entre la théorie et la pratique est plus facile à dire qu’à faire.

L’éthique, bien sûr – mais comment ?

Les recherches de Capgemini ont qualifié de “décevants” les progrès des organisations dans le domaine de l’éthique, marqués par des actions inégales. Seule la moitié des organisations, par exemple, ont nommé un responsable chargé de l’éthique des systèmes d’IA.

Mills tire une conclusion similaire. “Nous avons vu qu’il y a beaucoup de principes en place, mais très peu de changements dans la façon dont les systèmes d’IA sont réellement construits”, dit-il. “Il y a une prise de conscience croissante, mais les entreprises ne savent pas comment agir. Cela semble être un problème important et épineux, et elles savent en quelque sorte qu’elles doivent faire quelque chose, mais elles ne savent pas quoi”.

Il y a heureusement des exemples de bonne conduite. Mills recommande de suivre les pratiques de Salesforce, qui remontent à 2018, lorsque la société a créé un service d’IA pour le CRM appelé Einstein. Avant la fin de l’année, la société avait défini une série de principes d’IA, créé un bureau d’utilisation éthique et humaine, et nommé un responsable éthique et humain, ainsi qu’un architecte de la pratique éthique de l’intelligence artificielle.

Embaucher et habiliter un collaborateur qui conduira la mise en place d’une IA responsable dans toute l’organisation

En fait, l’une des premières mesures à prendre pour tout DSI soucieux de l’éthique est d’embaucher et d’habiliter un collaborateur qui conduira la mise en place d’une IA responsable dans toute l’organisation, et de lui donner un siège au Comex. “Un champion interne devrait être nommé pour diriger toute initiative d’IA responsable”, déclare à ZDNet Detlef Nauck, responsable de l’IA et de la recherche en sciences des données à BT Global.

M. Nauck ajoute que ce rôle devrait exiger qu’un employé spécifiquement formé à l’éthique de l’IA travaille dans toute l’entreprise et tout au long du cycle de vie du produit, en anticipant les conséquences involontaires des systèmes d’IA et en discutant de ces questions avec les dirigeants.

Il est également essentiel de s’assurer que les employés comprennent les valeurs de l’organisation, par exemple en communiquant les principes éthiques par le biais de sessions de formation obligatoires. “Les sessions doivent former les employés sur la manière de respecter les engagements éthiques de l’organisation en matière d’IA, et leur poser les questions essentielles nécessaires pour repérer les problèmes éthiques potentiels, par exemple si une application d’IA peut conduire à l’exclusion de certains groupes de personnes ou causer des dommages sociaux ou environnementaux”, explique M. Nauck.

Tester les nouveaux produits d’IA tout au long de leur cycle de vie

La formation doit être accompagnée d’outils pratiques permettant de tester les nouveaux produits tout au long de leur cycle de vie. Salesforce, par exemple, a créé un outil de “balayage des conséquences” qui demande aux participants d’imaginer les résultats imprévus que pourrait avoir une nouvelle fonctionnalité sur laquelle ils travaillent, et comment les atténuer.

L’entreprise dispose également d’un tableau dédié qui évalue, du prototype à la production, si les équipes éliminent les biais dans les données de formation des IA. Selon l’entreprise, c’est ainsi que l’équipe marketing d’Einstein a réussi à éliminer les biais dans le ciblage des publicités.

Mills mentionne des pratiques similaires au Boston Consulting Group. L’entreprise a créé un outil web simple, qui se présente sous la forme d’un questionnaire “oui ou non” que les équipes peuvent utiliser pour tout projet sur lequel elles travaillent. Adapté des principes éthiques du BCG, l’outil peut aider à repérer les risques en permanence.

L’éthique consiste à insuffler un état d’esprit au sein des équipes, et ne nécessite pas de technologie sophistiquée ou d’outils coûteux

“Les équipes peuvent utiliser le questionnaire dès la première étape du projet et jusqu’au déploiement”, explique Mills. “Au fur et à mesure, le nombre de questions augmente, et cela devient davantage une conversation avec l’équipe. Cela leur donne l’occasion de prendre du recul et de réfléchir aux implications de leur travail et aux risques potentiels”.

L’éthique consiste donc, en fin de compte, à insuffler un état d’esprit au sein des équipes et ne nécessite pas de technologie sophistiquée ou d’outils coûteux. Par conséquent, réfléchir dès maintenant à ce sujet pourrait s’avérer essentiel pour garder une longueur d’avance sur la concurrence.

Pour aller plus loin sur le sujet de l’IA en entreprise

Source : “ZDNet.com”

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading