Algorithmes : les administrations forcées à plus de transparence

Spread the love
Algorithmes : les administrations forcées à plus de transparence

Non, les modifications de tarifs réglementés de vente de gaz, le prix du tabac ou encore la réévaluation de certains frais bancaires ne sont pas les seules annonces mises en vigueur au 1er juillet 2020 qui impactent la vie des citoyens. Depuis mercredi, les internautes peuvent aussi exiger des administrations qu’elles révèlent les dessous de leurs algorithmes, quand ces derniers, à 100 % automatisés, sont à l’origine d’une prise de décision.

De l’attribution des places en crèche, au calcul des taux d’imposition, en passant par la prédiction du potentiel d’embauche d’une entreprise, ou encore la gestion des greffons cardiaques par l’agence de biomédecine… les algorithmes régissent un certain nombre de domaines et passent, la plupart du temps, sous le radar des utilisateurs.

Comme l’explique Simon Chignard, conseiller stratégique chez Etalab, mission en charge de l’ouverture et de l’exploitation des données publiques au sein de la Direction interministérielle du numérique, les algorithmes publics se distinguent des algorithmes privés par le fait qu’ils sont incontournable dans le parcours des utilisateurs : « Parcoursup, par exemple, constitue la porte d’entrée obligatoire pour accéder à la très grande majorité de l’offre d’enseignement supérieur en France. A contrario, un individu qui ne serait pas satisfait de l’algorithme de recommandation de Youtube peut tout à fait utiliser les services d’une autre plateforme de vidéo en ligne, voire renoncer à cet usage ».

Ainsi, le meilleur cas d’école reste encore le défunt site APB, la plateforme post-bac – remplacée depuis par Parcoursup – épinglée par la CNIL pour ses lacunes et son opacité, qui reposait sur un traitement purement automatisé, sans place pour l’intervention humaine. Après ces déboires, Parcoursup a dû revoir sa copie, donnant carte blanche aux établissements d’enseignement supérieur de décider des modalités et des critères d’examen des candidatures qu’ils reçoivent. En contre-partie, chaque établissement est responsable de son traitement. Et si ces derniers utilisent des algorithmes “locaux”, ils doivent donc être en capacité de les documenter et de les expliquer pour convenir au principe de transparence.

publicité

Principe de transparence des algorithmes publics introduit il y a quatre ans

Ce principe de transparence des algorithmes publics est appliqué depuis le 1er septembre 2017, introduit dans la loi pour une République numérique de 2016, dite “Loi Lemaire”, selon laquelle « toute décision individuelle prise sur le fondement d’un traitement algorithmique » doit comporter une « mention explicite » pour en informer le public. La loi dit alors que les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre doivent également être communiquées par l’administration à l’intéressé s’il en fait la demande.

Plus précisément, l’administration doit être en mesure de communiquer quatre informations : dans un premier temps, « le degré et le mode de contribution du traitement algorithmique à la prise de décision » ; ensuite les « données traitées et leurs sources » ainsi que « les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé », et enfin « les opérations effectuées par le traitement ».

Mais devant l’ampleur et la difficulté de la tâche, peu d’administrations ont en réalité joué le jeu, sauf l’Education nationale avec le système d’affectation des lycées Affelnet, confie le juriste Thierry Vallat, spécialiste en droit du numérique, à ZDNet.

Relance du débat en 2018

Le débat sur la loi sur la protection des données personnelles de 2018 a permis de relancer la machine, en introduisant cette fois-ci des rectifications par rapport au plan initial : seules les décisions à 100 % automatisées seront en mesure d’être contestées et considérées le cas échéant comme nulles, si l’administration est en incapacité de documenter l’algorithme utilisé. D’autre part, les effets de la nullité ont été repoussés au 1er juillet 2020, d’où un tel délai de mise en œuvre.

« Dès lors, depuis mercredi en effet, en l’absence de “mention explicite”, les décisions concernées doivent systématiquement être considérées comme nulles. Mais cette nullité automatique ne prévaudra devant le juge administratif qu’en l’absence de “mention explicite”, le seul fait pour l’administration de ne pas répondre au demandes d’explication des citoyens n’étant passible d’aucune sanction », souligne Thierry Vallat.

Concrètement, si la décision est annulée, par exemple une taxe d’habitation mise à votre charge, vous n’auriez pas à la payer ! Si, toutefois, tout traitement qui n’est pas automatisé à 100 % n’est pas concerné par cette nullité. C’est donc au niveau de cette brèche que les administrations seront tentées de s’engouffrer, constate Thierry Vallat. En effet, « la difficulté sera de savoir exactement si tel est ou non le cas, l’administration risquant de se réfugier derrière une intervention humaine à un moment du process sans que l’on puisse vérifier la véracité de cette information », estime-t-il.

Administrations frileuses

En 2020, les administrations sont-elles prêtes à respecter cette obligation ? Selon le juriste, ce n’est manifestement pas le cas. Et pour au moins deux raisons, avance-t-il : d’une part, à cause d’une « insuffisante acculturation des administrations au enjeux du numérique qu’elles considèrent comme une charge indue » et, de l’autre, d’« une inadaptation lorsqu’elles sont confrontées à des difficultés de mise en œuvre de ces nouvelles obligations ».

Un rapport rédigé par des élèves de l’ENA en février dernier vient confirmer ces doutes. Il montre que les obligations de transparence issues de la loi Numérique demeurent largement ignorées des acteurs publics, et témoigne au passage d’une insuffisance parfois notoire des moyens humains et financiers pour mener à bien cette charge supplémentaire pour les administrations. D’autant plus que les interlocuteurs interrogés dans le cadre du rapport ont « mis en avant des définitions très variées de ce qui constituait un algorithme » qui mériteraient d’être harmonisées.

Malgré les difficultés de mise en œuvre que cela pose, le rapport soutient, a contrario, que la prise de décision algorithmique permet de « rapprocher le citoyen de la décision en lui permettant de comprendre son fondement, d’être informé de ses modalités, et d’en contrôler la validité, d’autant qu’elle s’accompagne d’une attention croissante au mode de fabrication de cette décision ».

Leave a Reply