Vidéo : l’Europe veut fixer les règles de l’IA. Pourquoi ce ne sera pas simple

Vidéo : l'Europe veut fixer les règles de l'IA. Pourquoi ce ne sera pas simple

Après des années de consultation d’experts, quelques fuites et de nombreuses pétitions et lettres ouvertes de groupes militants, l’Union européenne a enfin dévoilé ses nouvelles règles en matière d’intelligence artificielle. Il s’agit d’une première mondiale visant à tempérer les craintes que cette technologie ne conduise à un avenir orwellien dans lequel des systèmes automatisés prendront des décisions sur les aspects les plus sensibles de nos vies.

La Commission européenne a publié un nouveau cadre juridique qui s’appliquera aux secteurs public et privé, pour tout système d’IA déployé au sein de l’Union ou touchant les citoyens européens, que la technologie soit importée ou développée dans les États membres.

Au cœur de ce cadre juridique se trouve une hiérarchie comprenant quatre niveaux de risque, surmontés de ce que la Commission décrit comme un “risque inacceptable” : les utilisations de l’IA qui violent les droits fondamentaux et qui seront interdites.

publicité

Tous les regards se tournent vers la question controversée de la reconnaissance faciale

Il s’agit, par exemple, des systèmes automatisés qui manipulent le comportement humain pour amener les utilisateurs à agir d’une manière qui pourrait leur nuire, ainsi que des systèmes qui permettent aux gouvernements de marquer socialement leurs citoyens.

Mais tous les regards se tournent vers la question controversée de la reconnaissance faciale, qui a suscité de nombreux débats ces dernières années en raison du potentiel de cette technologie à permettre une surveillance de masse. La Commission propose d’interdire la reconnaissance faciale, et plus largement les systèmes d’identification biométriques, lorsqu’ils sont utilisés dans les espaces publics, en temps réel, et par les forces de l’ordre (coucou la préfecture de police de Paris !)

Cette interdiction est assortie de quelques exceptions : au cas par cas, les force de l’ordre pourront toujours exercer une surveillance grâce à des technologies telles que la reconnaissance faciale en direct pour rechercher les victimes d’un crime (comme les enfants disparus), prévenir une attaque terroriste ou détecter l’auteur d’une infraction pénale.

Une proposition qui laisse trop de failles

Les règles ne sont donc pas à la hauteur de l’interdiction générale de l’utilisation de la reconnaissance faciale à des fins de surveillance de masse que de nombreux groupes d’activistes réclament, et les critiques s’accumulent déjà à l’encontre d’une proposition jugée trop étroite et qui laisse trop de failles.

“Cette proposition ne va pas assez loin pour interdire la surveillance biométrique de masse”, a tweeté le réseau européen des droits numériques EDRi.

Par exemple, les systèmes d’identification biométrique qui ne sont pas utilisés par les forces de l’ordre, ou qui ne sont pas effectués en temps réel, passeront du statut de “risque inacceptable” à celui de “risque élevé” – la deuxième catégorie d’IA décrite par la Commission, et qui sera autorisée sous réserve d’exigences spécifiques.

Des systèmes à haut risque

Les systèmes à haut risque comprennent également les systèmes de reconnaissance des émotions, ainsi que les modèles d’IA qui déterminent l’accès à l’éducation, à l’emploi ou à des services privés et publics essentiels tels que l’évaluation du crédit. Les algorithmes utilisés à la frontière pour gérer l’immigration, pour administrer la justice ou qui interfèrent avec les infrastructures critiques font également partie des systèmes à haut risque.

Pour que ces modèles soient autorisés à entrer sur le marché de l’UE, des critères stricts devront être respectés. Cela va de la réalisation d’évaluations des risques adéquates à la garantie que les algorithmes sont formés sur des ensembles de données de haute qualité, en passant par la fourniture de niveaux élevés de transparence, de sécurité et de surveillance humaine. Tous les systèmes à haut risque devront être enregistrés dans une nouvelle base de données européenne.

Les fournisseurs de systèmes d’IA à haut risque devront s’assurer que la technologie passe par des évaluations pour certifier que l’outil est conforme aux exigences légales d’une IA digne de confiance. Mais cette évaluation, sauf dans des cas spécifiques tels que la technologie de reconnaissance faciale, ne devra pas être effectuée par un tiers.

“Permettre aux développeurs d’IA de noter leurs propres devoirs”

“En fait, ce que cela va faire, c’est permettre aux développeurs d’IA de noter leurs propres devoirs”, explique à ZDNet Ella Jakubowska, responsable des politiques et des campagnes chez EDRi. “Et bien sûr, ceux qui le développent seront incités à dire que ce qu’ils développent est conforme”.

“Il est vraiment exagéré d’appeler cela une réglementation si elle est sous-traitée aux entités mêmes qui profitent de la présence de leur IA dans le plus grand nombre d’endroits possible. C’est très inquiétant.”

Une première mondiale

Malgré ses lacunes, Mme Jakubowska observe que le fait que la Commission européenne reconnaisse que certaines utilisations de l’IA devraient être interdites est une étape positive dans un domaine qui manque de réglementation, ce qui a parfois valu au secteur d’être qualifié de “Far West”.

Jusqu’à présent, les entreprises se sont surtout appuyées sur des codes de conduite qu’elles se sont elles-mêmes attribués pour mener à bien leurs initiatives en matière d’IA – c’est-à-dire lorsqu’elles n’étaient pas tenues de rendre des comptes par l’activisme des employés qui s’inquiétaient du développement d’algorithmes nuisibles.

Les faits montrent que les méthodes existantes, ou plutôt l’absence de méthodes, présentent certaines lacunes. Qu’il s’agisse de technologies biométriques permettant de suivre à la trace les minorités musulmanes ouïgoures en Chine ou d’algorithmes utilisés par les forces de l’ordre ciblant injustement les citoyens sur la base de leur race, les exemples abondent de systèmes d’IA qui prennent des décisions à fort enjeu avec peu de contrôle, mais qui ont souvent des conséquences dramatiques sur la vie des personnes concernées.

“La société civile est écoutée, dans une certaine mesure”

Les appels à l’élaboration de règles claires pour contrôler la technologie se sont multipliés au fil des ans, avec un accent particulier sur la restriction des modèles d’IA qui peuvent reconnaître automatiquement des caractéristiques sensibles telles que le sexe, la sexualité, la race et l’origine ethnique, l’état de santé ou le handicap.

C’est pourquoi la reconnaissance faciale a été sous le feu des projecteurs – et dans ce contexte, l’interdiction proposée par la Commission est susceptible d’être accueillie favorablement par de nombreux groupes militants. Pour Mme Jakubowska, cependant, les règles doivent aller plus loin, avec une liste plus étendue des utilisations interdites de l’IA.

“La société civile est écoutée, dans une certaine mesure”, dit-elle. “Mais les règles ne vont pas assez loin. Nous aimerions voir, par exemple, la police prédictive, les utilisations de l’IA à la frontière pour des questions d’immigration, et la reconnaissance automatisée des personnes, également interdites – ainsi qu’une position beaucoup plus forte contre toutes les formes de surveillance biométrique de masse, et pas seulement les exemples limités couverts par la proposition.”

Une entrave aux entreprises innovantes

Mais si la position de Mme Jakubowska sera partagée par de nombreux groupes de défense des droits numériques, elle est loin d’être partagée par tous les acteurs du secteur.

En effet, ce qui est perçu par certains comme une tentative d’empêcher l’IA de causer des ravages sociaux peut également être perçu comme une entrave au meilleur scénario possible, celui où les entreprises innovantes sont incitées à développer des systèmes d’IA dans l’UE qui pourraient profiter grandement à la société, qu’il s’agisse d’améliorer les prévisions en matière de santé ou de mieux combattre le changement climatique.

Les arguments en faveur de l’IA n’ont plus besoin d’être exposés : on sait déjà que cette technologie contribue de manière significative à la croissance économique et sociale. Dans le domaine des ventes et du marketing, l’IA pourrait générer jusqu’à 2 600 milliards de dollars dans le monde, selon les analystes ; tandis que les rapports de la Banque mondiale montrent que les entreprises qui utilisent de la donnée ont des marges d’exploitation jusqu’à 20 % supérieures à celles des entreprises traditionnelles.

Pourquoi les Etats-Unis ont une approche laxiste ?

Il ne s’agit pas seulement de revenus. L’IA peut aider à fournir des services publics plus efficaces, aider les médecins à identifier les maladies, indiquer aux agriculteurs comment optimiser le rendement des cultures et faire naître la future ville intelligente avec, entre autres, des voitures sans conducteur.

Pour que tout cela se produise, les entreprises doivent innover, et les entrepreneurs ont besoin d’un environnement accueillant pour lancer leurs start-up. C’est la raison pour laquelle les États-Unis, par exemple, ont adopté une approche laxiste de la réglementation.

Il est facile d’affirmer que la Commission européenne fait exactement le contraire. L’IA étant une technologie encore jeune et en évolution rapide, toute tentative de réglementation prématurée de certains cas d’utilisation pourrait empêcher de nombreux projets innovants.

La réglementation semble conçue pour être définie en détail par la jurisprudence

Par exemple, les règles interdisent les algorithmes qui manipulent les utilisateurs pour les amener à agir d’une manière qui pourrait leur nuire ; mais les nuances de ce qui constitue ou non un préjudice restent à définir, alors qu’elles pourraient déterminer si un système doit être autorisé sur le marché européen.

Pour Nick Holliman, professeur à l’école d’informatique de l’université de Newcastle, l’imprécision des nouvelles règles de l’UE reflète un manque de compréhension d’une technologie qui prend de nombreuses formes différentes. “L’absence de réglementation des systèmes d’IA présente des risques de dommages, en particulier dans les domaines à haut risque, mais la nature du domaine est telle que les réglementations sont rédigées sur une cible mouvante”, explique M. Holliman à ZDNet.

En pratique, dit Holliman, la réglementation semble inapplicable, ou conçue pour être définie en détail par la jurisprudence. De quoi faire fuir de nombreuses entreprises.

“Il semble qu’elle poussera le développement des systèmes d’IA de l’UE dans des directions très différentes de celles des États-Unis et de la Chine, en termes d’aversion au risque”, déclare M. Holliman. “Alors que les autres régions disposeront d’une certaine flexibilité, elles devront tenir compte des réglementations européennes dans tous les produits qui pourraient être utilisés dans l’UE.”

La course à l’IA

Lorsqu’il s’agit de prendre la tête de l’IA, l’UE n’est pas encore tout à fait au point. En fait, elle est à la traîne.

La tendance de l’UE à adopter la réglementation des nouvelles technologies a déjà été pointée du doigt pour expliquer les lacunes de l’Union. Un récent rapport de la Banque mondiale a montré que l’UE a lancé 38 % des enquêtes sur la conformité des données en 2019, contre seulement 12 % en Amérique du Nord. Pour certains économistes, cet environnement “peu propice aux affaires” est la raison pour laquelle de nombreuses entreprises choisissent d’autres lieux pour se développer.

“L’UE a des problèmes plus larges liés à l’écosystème technologique : elle est très bureaucratique, il est difficile d’obtenir des financements, c’est une mentalité descendante”, explique à ZDNet Wolfgang Fengler, économiste principal à la Banque mondiale. “Le défi est que ces nouvelles règles peuvent être considérées comme peu favorables aux entreprises – et je ne parle pas pour Google, mais pour les petites start-ups qui opèrent dans l’UE.”

La Commission fixe les coûts attendus de la mise en conformité

Dans sa nouvelle réglementation de l’IA, la Commission fixe les coûts attendus de la mise en conformité. La fourniture d’un système à haut risque pourrait coûter jusqu’à 7 000 €, auxquels s’ajoutent 7 500 € pour les frais de vérification.

Plus important encore, les sanctions sont prohibitives. La commercialisation d’un système interdit pourrait entraîner des amendes allant jusqu’à 30 millions d’euros, soit 6 % du chiffre d’affaires ; le non-respect des exigences liées aux systèmes à haut risque pourrait coûter 20 millions d’euros, soit 4 % du chiffre d’affaires ; et la fourniture d’informations incorrectes sur les modèles pourrait entraîner des amendes de 10 millions d’euros, soit 2 % du chiffre d’affaires.

Pour M. Fengler, la leçon est claire : les ingénieurs et entrepreneurs en IA talentueux seront rebutés par les coûts potentiels de la conformité, qui ne font qu’ajouter à une mentalité existante qui étouffe l’innovation. Et sans talent, l’Europe aura du mal à rivaliser avec les États-Unis et la Chine.

“Nous ne voulons pas de sociétés à la Big Brother, et il y a un danger clair de cela”, dit Fengler. “C’est bien de se protéger contre les peurs, mais si c’est votre principal moteur, alors nous n’arriverons jamais à rien. Vous pensez que vous pouvez planifier tout cela exactement, mais ce n’est pas le cas. Nous ne savons pas comment certaines expériences d’IA vont se terminer, et il existe de nombreux exemples où l’IA rendra le monde bien meilleur.”

Compétence à tout prix

Pour les experts en droits numériques comme Jakubowska d’EDRi, cependant, les systèmes d’IA ont déjà dépassé le stade où ils suscitent des craintes, et ont déjà démontré des préjudices tangibles qui doivent être traités.

Plutôt que d’appeler à une interdiction de toutes les formes d’IA, souligne-t-elle, EDRi s’engage à restreindre les cas d’utilisation dont il a été démontré qu’ils avaient un impact sur les droits fondamentaux. Tout comme les couteaux devraient être autorisés, mais l’utilisation d’un couteau comme arme devrait être illégale, les utilisations problématiques de l’IA devraient être interdites, affirme-t-elle.

Plus important encore, l’UE ne devrait pas chercher à concurrencer d’autres nations pour le développement de systèmes d’IA qui pourraient menacer les droits fondamentaux.

“Nous ne devrions pas considérer l’innovation illimitée comme étant au même niveau que les droits fondamentaux”

“Nous ne devrions pas être en concurrence à tout prix. Nous ne voulons pas être en concurrence pour les applications exceptionnellement nuisibles de l’IA”, déclare Mme Jakubowska. “Et nous ne devrions pas considérer l’innovation illimitée comme étant au même niveau que les droits fondamentaux. Bien sûr, nous devons faire tout ce qui est en notre pouvoir pour que les entreprises européennes puissent prospérer, mais avec la réserve que cela doit se faire dans les limites des protections des droits fondamentaux.”

C’est en tout cas le discours adopté par la Commission européenne, qui invoque la nécessité de rester centré sur l’humain tout en ne contraignant pas inutilement les entreprises. Cependant, en s’efforçant d’atteindre cet équilibre délicat et quasi impossible à atteindre, l’Union européenne semble avoir inévitablement échoué à satisfaire les deux extrémités du spectre.

“Le diable se cachera dans les détails. C’est la nature de la loi, et les gens vont se battre pendant des années sur la formulation”

Pour Lilian Edwards, professeur de droit, d’innovation et de société à l’université de Newcastle, les nouvelles règles de la Commission ne sont guère surprenantes, compte tenu du fait que l’UE est depuis longtemps le régulateur du monde. Plus important encore, comme toutes les lois, elles seront continuellement débattues et défiées.

“En tant qu’universitaire, je dirai : À quoi vous attendiez-vous ?”, dit-elle à ZDNet. “Le diable se cachera dans les détails. C’est la nature de la loi, et les gens vont se battre pendant des années sur la formulation.”

Savoir si la stratégie portera ses fruits est une toute autre question. Le Parlement européen et les États membres devront maintenant adopter les propositions de la Commission sur l’IA en suivant la procédure législative ordinaire, après quoi les règlements seront directement applicables dans toute l’UE.

Pour aller plus loin sur ce sujet

Source : “ZDNet.com”

Leave a Reply

Your email address will not be published. Required fields are marked *