Pourquoi chaque pays doit forger sa propre définition de ce que serait l’IA éthique

Pourquoi chaque pays doit forger sa propre définition de ce que serait l'IA éthique

En France comme ailleurs, chaque pays doit aujourd’hui décider ce qu’il considère comme une utilisation acceptable de l’intelligence artificielle (IA), afin de savoir par exemple si l’utilisation de la reconnaissance faciale dans l’espace public doit être acceptée ou interdite. Pour Ieva Martinkenaite, responsable de l’analyse et de l’IA chez l’opérateur scandinave Telenor, le débat public est la clé pour trouver un équilibre entre les opportunités du marché et la garantie d’une utilisation éthique de l’IA.

Pour la dirigeante, les gouvernements ont une tâche lourde : celle de s’assurer que les réglementations en matière d’IA soient adaptées à leur population locale. C’est ce qu’essaie de faire l’opérateur norvégien, qui applique l’IA et les modèles de machine learning pour proposer des campagnes de vente plus personnalisées et ciblées aux clients, obtenir une meilleure efficacité opérationnelle et optimiser les ressources de son réseau. Comme le fait savoir la direction de l’opérateur, ces technologies peuvent aider à lutter contre le réchauffement climatique, en éteignant par exemple les antennes lorsque leur utilisation est faible.

Pour Ieva Martinkenaite, par ailleurs présidente du groupe de travail sur l’intelligence artificielle de la GSMA (l’organisation regroupant les principaux opérateurs mondiaux), les régulateurs se doivent de prendre davantage en compte l’impact commercial des technologies et des législations qui les encadrent. Les cadres sur l’éthique et la gouvernance de l’IA peuvent sembler bons sur le papier, mais il faut aussi s’assurer qu’ils sont utilisables en termes d’adoption, relève-t-elle.

publicité

Trouver le juste équilibre

En favorisant l’adoption significative de l’IA dans notre quotidien, les nations doivent s’efforcer de trouver un “équilibre” entre l’exploitation des opportunités du marché et l’utilisation éthique de la technologie. Notant que la technologie évolue constamment, la dirigeante a reconnu, lors d’un colloque qui s’est tenu à Singapour, qu’il n’était pas toujours possible pour les réglementations de suivre le rythme.

Lors de l’élaboration de la réglementation de l’IA sur le Vieux Continent, les législateurs de l’UE ont été confrontés à plusieurs défis, notamment la manière dont les lois régissant l’utilisation éthique de l’IA pourraient être introduites sans avoir d’impact sur le flux de talents et d’innovations, a-t-elle expliqué. Cela s’est avéré un obstacle important, car certains craignaient que la réglementation n’entraîne une bureaucratie trop lourde pour les entreprises. La dépendance croissante à l’égard des infrastructures informatiques et des cadres de machine learning développés par une poignée de géants de l’internet, dont Amazon, Google et Microsoft ou Tencent, Baidu et Alibaba, suscite également des inquiétudes, note Ieva Martinkenaite.

Et de rappeler la perplexité des responsables de l’UE quant à la manière dont la région pourrait maintenir sa souveraineté et son indépendance au milieu de ce paysage émergent. Les discussions à Bruxelles portent plus spécifiquement sur la nécessité de créer des technologies clés pour l’IA dans la région, telles que les données, la puissance de calcul, le stockage et les architectures de machine learning, détaille la dirigeante. Selon elle, l’accent étant mis sur la création d’une plus grande indépendance technologique en matière d’IA, il est alors essentiel que les gouvernements de l’UE créent des incitations et stimulent les investissements locaux dans l’écosystème.

Des bénéfices à la clé

Au-delà des enjeux de souveraineté, Ieva Martinkenaite appelle à ne pas baisser la garde en ce qui concerne le dévoiement possible de l’IA à des fins politiques. Récemment, Michelle Bachelet, responsable des droits humains aux Nations unies, a demandé que l’utilisation de l’IA soit interdite si elle enfreint le droit international des droits humains. Et de souligner l’urgence d’évaluer et de traiter les risques que l’IA pourrait faire peser sur les droits humains, notant qu’une législation plus stricte sur son utilisation devrait être mise en œuvre là où elle présente des risques plus élevés pour les droits humains.

« L’IA peut être une force du bien, aidant les sociétés à surmonter certains des grands défis de notre époque. Mais les technologies de l’IA peuvent avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans tenir suffisamment compte de la manière dont elles affectent les droits humains des personnes », a fait savoir cette dernière, rejoignant ainsi la position exprimée par Ieva Martinkenaite.

Selon cette dernière, c’est aujourd’hui à chaque pays de déterminer ce qu’il entend par IA éthique. Et de souligner que tant que les problèmes de véracité liés à l’analyse des différentes couleurs de peau et des traits du visage n’auront pas été correctement résolus, l’utilisation de cette technologie d’IA ne devrait pas être déployée sans intervention humaine, sans une gouvernance adéquate ou sans une assurance qualité en place. A la clé de ce débat public et de cette réflexion de fond sur l’IA ? Des bénéfices en pagaille pour les autorités, les entreprises et les citoyens, promet la responsable de la recherche de Telenor.

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *