L’intelligence artificielle reflète le monde qui nous entoure, ce qui constitue un défi

L'intelligence artificielle reflète le monde qui nous entoure, ce qui constitue un défi

Les développeurs et les data scientists sont humains, bien sûr, mais les systèmes qu’ils créent ne le sont pas – ils ne sont que des reflets codés du raisonnement humain qui les anime. Faire en sorte que les systèmes d’intelligence artificielle fournissent des résultats justes et impartiaux, tout en garantissant les bonnes décisions commerciales, nécessite une approche holistique impliquant la majeure partie de l’entreprise. On ne peut pas – et on ne doit pas – attendre du personnel informatique et des data scientists qu’ils agissent en solo en matière d’intelligence artificielle.

On observe une volonté croissante d’étendre l’intelligence artificielle au-delà des bancs d’essai et des limites du développement de systèmes pour l’intégrer dans le monde des affaires. Par exemple, lors d’un récent panel du AI Summit, qui s’est tenu à New York en décembre 2021, les panélistes ont convenu que les chefs d’entreprise et les gestionnaires devaient non seulement s’interroger sur la qualité des décisions prises par l’IA, mais aussi s’impliquer plus activement dans leur formulation.

Alors, comment remédier aux éventuels préjugés ou inexactitudes ? Il est clair qu’il s’agit d’un défi qui doit être relevé par l’ensemble des dirigeants de l’entreprise. L’informatique, qui jusqu’à présent a supporté la majeure partie du poids de l’IA, ne peut pas le faire seule. Les experts du secteur préconisent d’ouvrir le développement de l’IA à un engagement plus humain. « Faire peser la charge sur les dirigeants et le personnel de l’informatique revient à généraliser à tort un ensemble de problèmes éthiques, juridiques et de réputation importants à l’échelle de l’entreprise pour un problème technique », selon Reid Blackman, PDG de Virtue et conseiller de Bizconnect. « Les préjugés dans l’IA ne sont pas uniquement un problème technique ; ils sont imbriqués dans tous les départements. »

publicité

Lutter contre les biais

À ce jour, on n’a pas fait assez pour lutter contre les biais de l’IA, poursuit Reid Blackman. « Malgré l’attention portée aux algorithmes biaisés, les efforts pour résoudre ce problème ont été assez minimes. » Et l’élimination des préjugés et des inexactitudes dans l’IA prend du temps. « La plupart des organisations comprennent que le succès de l’IA dépend de l’établissement d’une relation de confiance avec les utilisateurs finaux de ces systèmes, ce qui nécessite en fin de compte des algorithmes d’IA justes et impartiaux », déclare quant à lui Peter Oggel, directeur technique et vice-président senior des opérations technologiques chez Irdeto.

Il faut agir davantage au-delà des limites des centres de données ou des sites d’analystes. « Les data scientists n’ont pas la formation, l’expérience et les besoins de l’entreprise pour déterminer laquelle des métriques incompatibles de l’équité est appropriée », explique Reid Blackman. « De plus, ils n’ont souvent pas le poids nécessaire pour faire part de leurs préoccupations aux cadres supérieurs compétents ou aux experts en la matière concernés. »

Il est temps de faire plus « pour examiner ces résultats non seulement lorsqu’un produit est en ligne, mais aussi pendant les tests et après tout projet important », estime Patrick Finn, président et directeur général des Amériques chez Blue Prism. « Ils doivent également former le personnel technique et commercial sur la manière d’atténuer les préjugés au sein de l’IA et de leurs équipes humaines, afin de leur donner les moyens de participer à l’amélioration de l’utilisation de l’IA dans leur organisation. Il s’agit d’un effort à la fois descendant et ascendant, alimenté par l’ingéniosité humaine : supprimer les préjugés évidents afin que l’IA ne les intègre pas et, par conséquent, ne ralentisse pas le travail ou n’aggrave pas les résultats de quelqu’un. Ceux qui ne pensent pas équitablement à l’IA ne l’utilisent pas de la bonne manière. »

Définir la notion d’équité

Pour résoudre ce défi, « il faut aller au-delà de la validation des systèmes d’IA par rapport à quelques paramètres », explique Peter Oggel. « Si vous y réfléchissez, comment définir la notion d’équité ? Un problème donné peut avoir de multiples points de vue, chacun ayant une définition différente de ce qui est considéré comme équitable. Techniquement, il est possible de calculer des métriques pour des ensembles de données et des algorithmes qui disent quelque chose sur l’équité, mais par rapport à quoi cela devrait-il être mesuré ? »

Il faut investir davantage « dans la recherche sur les préjugés et la compréhension de la manière de les éliminer des systèmes d’IA. Les résultats de cette recherche doivent être intégrés dans un cadre de normes, de politiques, de lignes directrices et de meilleures pratiques que les organisations peuvent suivre. Sans réponses claires à ces questions et à bien d’autres encore, les efforts des entreprises pour éliminer les préjugés seront vains », conclut Peter Oggle.

Les préjugés liés à l’IA sont souvent « involontaires et subconscients », ajoute-t-il. « Sensibiliser le personnel à la question contribuera dans une certaine mesure à lutter contre les préjugés, mais il est tout aussi important de veiller à la diversité de vos équipes de data science et d’ingénierie, de fournir des politiques claires et d’assurer une supervision adéquate. »

Des mesures à plus court terme

Si l’ouverture des projets et des priorités à l’entreprise prend du temps, il existe des mesures à plus court terme qui peuvent être prises au niveau du développement et de la mise en œuvre ? Harish Doddi, PDG de Datatron, conseille de se poser les questions suivantes lors du développement de modèles d’IA :

  • Comment étaient les versions précédentes ?
  • Quelles sont les variables d’entrée dans le modèle ?
  • Quelles sont les variables de sortie ?
  • Qui a accès au modèle ?
  • Y a-t-il eu des accès non autorisés ?
  • Comment le modèle se comporte-t-il par rapport à certains paramètres ?

Pendant le développement, « les modèles de machine learning sont liés à certaines hypothèses, règles et attentes » qui peuvent donner des résultats différents une fois mis en production, explique Harish Doddi. « C’est là que la gouvernance est essentielle”. Une partie de cette gouvernance est un catalogue pour garder une trace de toutes les versions des modèles. « Le catalogue doit être capable de garder la trace et de documenter le cadre dans lequel les modèles sont développés, ainsi que leur lignage. »

Les entreprises « doivent mieux s’assurer que les considérations commerciales ne l’emportent pas sur les considérations éthiques. Il ne s’agit pas d’un exercice d’équilibre facile », déclare Peter Oggle. « Certaines approches consistent à surveiller automatiquement l’évolution du comportement des modèles dans le temps sur un ensemble fixe de points de données prototypiques. Cela permet de vérifier que les modèles se comportent de la manière attendue et respectent certaines contraintes liées au bon sens et aux risques connus de biais. En outre, la réalisation régulière de vérifications manuelles d’exemples de données pour voir comment les prédictions d’un modèle s’alignent sur ce que nous attendons ou espérons obtenir peut aider à repérer les problèmes émergents et inattendus. »

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *