Il faut interdire les algorithmes qui menacent les droits de l’homme, affirme l’ONU

Il faut interdire les algorithmes qui menacent les droits de l'homme, affirme l'ONU

Les appels à freiner l’utilisation de l’intelligence artificielle et, dans certains cas, à interdire purement et simplement cette technologie, se font de plus en plus pressants. La responsable des droits de l’homme des Nations unies, Michelle Bachelet, s’est jointe au chœur des experts qui exhortent les gouvernements à prendre des mesures plus fermes pour garder les algorithmes sous contrôle, dans un nouveau rapport qui recommande des moratoires sur la vente et l’utilisation de l’intelligence artificielle pour les cas d’utilisation à haut risque.

Mme Bachelet a également plaidé en faveur d’une interdiction de certaines applications de l’IA qui sont contraires au droit international des droits de l’homme, comme la notation sociale des individus sur la base de critères discriminatoires.

Étant donné qu’il n’existe pas encore de garanties pour s’assurer que la technologie est utilisée de manière responsable, a déclaré la commissaire des Nations unies, les gouvernements devraient de toute urgence mettre un frein à l’intelligence artificielle. Sans cela, les algorithmes potentiellement préjudiciables aux droits de l’homme continueront à être déployés sans aucune surveillance, causant davantage de dommages aux citoyens.

publicité

Impact de l’IA sur les droits de l’homme

Les algorithmes sont déjà présents dans tous les aspects de la vie de la plupart des gens, a souligné Mme Bachelet, citant divers systèmes qui participent actuellement à des décisions qui changent la vie des gens, comme l’attribution des services publics, l’attribution d’un emploi ou ce que les utilisateurs peuvent voir et partager en ligne.

“Nous ne pouvons pas nous permettre de continuer à faire du rattrapage en ce qui concerne l’IA – en autorisant son utilisation avec des limites ou une surveillance limitées ou inexistantes et en gérant après coup les conséquences presque inévitables sur les droits de l’homme”, a déclaré Mme Bachelet.

Les commentaires de la commissaire des Nations unies s’inscrivent dans le prolongement d’un rapport réalisé par son bureau pour étudier l’impact de l’IA sur les droits de l’homme tels que la vie privée, la santé, l’éducation, la liberté de mouvement ou la liberté d’expression.

Si l’intelligence artificielle s’est avérée être, dans une large mesure, “une force du bien” qui peut aider les sociétés et les économies à surmonter d’énormes défis, le rapport a également mis en évidence un impact “indéniable et en constante augmentation” de l’IA sur certains droits de l’homme.

Sur le lieu de travail, le rapport souligne le risque d’utiliser des algorithmes pour surveiller et gérer les travailleurs

Les algorithmes, par exemple, peuvent s’immiscer de manière significative dans la vie privée des utilisateurs. Les systèmes d’IA sont alimentés par de grandes quantités de données, y compris des données personnelles, ce qui encourage les organisations à collecter, stocker et traiter des informations sensibles sur leurs utilisateurs ou clients, parfois de manière secrète. Ces systèmes peuvent à leur tour être utilisés pour faire des prédictions sur la vie personnelle des gens, allant du quartier où ils vivent à leurs habitudes de sommeil.

Il existe plusieurs secteurs où l’utilisation de ces systèmes d’IA est particulièrement préoccupante, selon le rapport. Il s’agit notamment de l’application de la loi, où les algorithmes peuvent influencer la décision d’arrêter un criminel, ainsi que des services publics, où les modèles d’IA peuvent aider à déterminer les droits à l’aide sociale, jusqu’à savoir si une famille doit être signalée pour des visites par les services de garde d’enfants.

Sur le lieu de travail, le rapport souligne le risque d’utiliser des algorithmes pour surveiller et gérer les travailleurs. En ligne, les systèmes d’IA peuvent être utilisés pour prendre des décisions en matière de gestion de contenu, ce qui est essentiel pour déterminer le type de contenu auquel chaque utilisateur est exposé.

La grande question de la surveillance

Pour nombre de ces applications, le risque est double. Non seulement le système d’IA lui-même peut être en contradiction avec les droits de l’homme fondamentaux tels que le droit à la vie privée, mais dans certains cas, lorsque l’algorithme est biaisé, la technologie peut également prendre des décisions discriminatoires.

Il existe suffisamment d’exemples de modèles d’IA prenant des décisions préjudiciables – et parfois tout simplement mauvaises – pour s’inquiéter. “Le risque de discrimination lié aux décisions prises par l’IA – des décisions qui peuvent changer, définir ou endommager des vies humaines – n’est que trop réel. C’est pourquoi il faut une évaluation et un suivi systématiques des effets des systèmes d’IA afin d’identifier et d’atténuer les risques pour les droits de l’homme”, a déclaré Mme Bachelet.

Le rapport de l’ONU attire notamment l’attention sur l’utilisation des algorithmes par les États à des fins de surveillance, et en particulier sur les technologies biométriques telles que la reconnaissance faciale, qui est utilisée pour identifier les personnes en temps réel et à distance, avec le potentiel de permettre un suivi illimité des individus.

Selon le rapport, il devrait y avoir un moratoire sur l’utilisation des technologies biométriques dans les espaces publics, jusqu’à ce qu’il soit démontré que l’exactitude de l’algorithme ne pose aucun problème et que le système n’a pas d’impact discriminatoire.

Il incombe donc aux gouvernements de mettre en œuvre les lois appropriées pour maîtriser le développement des outils d’IA qui permettent la surveillance et d’autres violations des droits de l’homme, selon le commissaire des Nations unies.

Plus tôt cette année, par exemple, la Commission européenne a dévoilé un projet de règles sur l’intelligence artificielle, qui cataloguait les applications d’IA en fonction de différents niveaux de risque. Au sommet de la pyramide se trouvaient les cas d’utilisation assortis d’un “risque inacceptable”, qui violent les droits fondamentaux et devraient être interdits.

Selon la Commission européenne, l’utilisation de la reconnaissance faciale dans les espaces publics devrait être interdite car elle enfreint ces droits. La décision est toutefois assortie de diverses exceptions, que les groupes de défense des droits ont dénoncées comme laissant trop de failles.

Pour aller plus loin sur ce sujet

Tout comprendre à l’IA

Source : “ZDNet.com”

Leave a Reply

Your email address will not be published. Required fields are marked *