Reconnaissance faciale : la Cnil tape du poing sur la table et met en demeure Clearview AI

Reconnaissance faciale : la Cnil tape du poing sur la table et met en demeure Clearview AI

Les pratiques de Clearview AI se trouve une fois de plus dans le collimateur des autorités. En France cette fois, où la Cnil vient de mettre en demeure la société spécialisée dans la reconnaissance faciale de cesser d’aspirer sans autorisation des photographies et de vidéos accessibles sur internet pour gonfler sa base de données. Au terme d’une instruction lancée en mai 2020 suite à des plaintes de particuliers et d’une action collective conduite par l’ONG Privacy International un an plus tard, le gendarme des données a ordonné à la société Clearview AI de cesser ce traitement illicite et de supprimer les données dans un délai de 2 mois.

La procédure ne s’est pas arrêté aux seules frontières françaises. La Cnil indique en effet “avoir coopéré avec ses homologues européens afin de partager le résultat des investigations, chaque autorité étant compétente pour agir sur son propre territoire en raison de l’absence d’établissement de la société CLEARVIEW AI en Europe”. Le collectif emmené par Privacy International condamnait au printemps dernier le recours par Clearview AI d’une technique de “scraping” d’images automatisé destinée à nourrir sa base de données, qui serait aujourd’hui forte de plus de 10 milliards d’images faciales.

Une position aujourd’hui partagée par la Cnil, qui pointe du doigt deux manquements au RGPD de la part de la société spécialisée dans la reconnaissance faciale. D’une part, Clerview AI a été pris le doigt dans le pot de confiture en traitant des données personnelles de manière illicite, d’autre part, celle-ci n’a pas obtenu l’autorisation des personnes visibles dans ces images, tout en ne facilitant pas leurs demandes d’accès à leurs données lorsque celles-ci étaient formulées.

publicité

Le RGPD passe à la trappe

“La société Clearview AI dispose d’un délai de deux mois pour respecter les injonctions formulées dans la mise en demeure et en justifier auprès de la Cnil. Si, à l’issue de ce délai, elle ne s’est pas conformée, la présidente de la Cnil aura la possibilité de saisir la formation restreinte de la Cnil qui pourra prononcer une sanction, notamment pécuniaire”, fait savoir le gendarme français des données.

Pour rappel, le logiciel développé par Clearview AI aspire des photographies provenant de très nombreux sites web, y compris des réseaux sociaux. “Elle collecte sur ces réseaux l’ensemble des photographies directement accessibles, c’est-à-dire pouvant être consultées sans connexion à un compte. Des images sont également extraites de vidéos disponibles en ligne quelles que soient les plateformes”, fait savoir l’Autorité. Grâce aux données collectées, la société peut alors nourrir un moteur de recherche permettant – moyennant paiement – de rechercher une personne à l’ide d’une photographie. Parmi la clientèle de Clearview AI figurent notamment des services de police.

“Ces données biométriques, sont particulièrement sensibles, notamment parce qu’elles sont liées à notre identité physique (ce que nous sommes) et qu’elles permettent de nous identifier de façon unique”, rappelle la Cnil, qui regrette que “l’immense majorité des personnes dont les images sont aspirées et versées dans le moteur de recherche ignore être concernée par ce dispositif”. Celle-ci vient par conséquent de donner deux mois à la société pour revoir ses pratiques, en facilitant l’exercice des droits des personnes concernées par ce scraping de grande ampleur ainsi qu’en répondant aux demandes d’effacement formulées.

La reconnaissance faciale dans le viseur de Bruxelles

Ce n’est pas la première fois que la start-up Clearview AI est dans le viseur des autorités et d’une opinion publique de plus en plus sensibilisée à l’enjeu de la protection des données personnelles. La première enquête révélant l’ampleur des pratiques de Clearview AI remonte à janvier 2020. Dans cette enquête, le “New York Times ” avait mis en lumière les pratiques plus que limite de la société, qui opérait jusque-là de façon discrète dans un « secret intentionnel », indiquait en mai dernier Privacy International.

En octobre dernier, le Parlement européen a voté en faveur d’une résolution – non contraignante – interdisant aux forces de l’ordre d’utiliser des systèmes de reconnaissance faciale. Après quelques années de flou sur la question, les parlementaires européens en sont finalement venus à la conclusion que l’utilisation de l’IA par les forces de l’ordre présenterait ivers risques : prise de décision opaque, discrimination, intrusion dans la vie privée, défis concernant la protection des données personnelles, de la dignité humaine et de la liberté d’expression et d’information.

Outre l’interdiction de la reconnaissance faciale à des fins répressives, la résolution demandait l’interdiction permanente pour les forces de l’ordre d’utiliser l’analyse automatisée d’autres caractéristiques humaines, comme la démarche, les empreintes digitales, l’ADN, la voix et d’autres signaux biométriques et comportementaux.

Leave a Reply

Your email address will not be published. Required fields are marked *