Éthique de l’IA : tout comprendre aux avantages et aux risques de l’intelligence artificielle

Spread the love
Éthique de l'IA : tout comprendre aux avantages et aux risques de l'intelligence artificielle

En 1949, à l’aube de l’ère informatique, le philosophe français Gabriel Marcel mettait en garde contre le danger d’utiliser naïvement la technologie pour résoudre les problèmes de la vie.

La vie, écrivait Marcel dans Être et avoir, ne peut être réparée comme on répare un pneu crevé. Toute réparation, toute technique, est elle-même un produit de ce même monde problématique, et est donc problématique.

L’admonition de Marcel est souvent résumée en une seule phrase mémorable : “La vie n’est pas un problème à résoudre, mais un mystère à vivre.”

Malgré cet avertissement, soixante-dix ans plus tard, l’intelligence artificielle est l’expression la plus puissante à ce jour de l’envie des humains de résoudre ou d’améliorer la vie humaine avec des ordinateurs.

Mais que sont ces systèmes informatiques ? Comme l’aurait demandé Gabriel Marcel, il faut se demander d’où ils viennent, s’ils incarnent les problèmes qu’ils sont censés résoudre.

publicité

Qu’est-ce que l’IA éthique ?

L’éthique dans l’IA consiste pour l’essentiel à remettre en question, à enquêter en permanence et à ne jamais considérer comme acquises les technologies qui s’imposent rapidement à la vie humaine.

Cette remise en question est d’autant plus urgente que les systèmes d’IA atteignent une taille considérable en termes de puissance de calcul requise et de données consommées. Et leur prévalence dans la société, tant par l’ampleur de leur déploiement que par le niveau de responsabilité qu’ils assument, éclipse la présence de l’informatique de l’ère du PC et de l’Internet. Dans le même temps, l’augmentation de l’échelle signifie que de nombreux aspects de la technologie, en particulier sous sa forme d’apprentissage profond (deep learning), échappent à la compréhension des praticiens les plus expérimentés.

Les préoccupations éthiques vont de l’ésotérique, comme la question de savoir qui est l’auteur d’une œuvre d’art créée par l’IA, à la question très réelle et très inquiétante de la surveillance aux mains des autorités.

Quelque part dans ce questionnement, il y a une lueur d’espoir qu’avec les bons conseils, l’IA peut aider à résoudre certains des plus grands problèmes du monde. La même technologie qui peut propulser des préjugés peut révéler des préjugés dans les décisions d’embauche. La même technologie – qui est une grosse consommatrice d’énergie – peut potentiellement apporter des réponses pour ralentir ou même inverser le réchauffement climatique. À l’heure actuelle, les risques de l’IA sont sans doute plus importants que les avantages, mais les avantages potentiels sont considérables et méritent d’être étudiés.

Comme l’a élégamment résumé Margaret Mitchell, anciennement co-directrice de l’IA éthique chez Google, la question clé est la suivante : “Que pourrait faire l’IA pour améliorer la société ?”

L’éthique de l’IA : Une nouvelle urgence et une nouvelle controverse

La question de Mitchell est intéressante, mais surtout, elle s’inscrit dans un contexte d’urgence qui a ajouté de l’urgence à la discussion.

Les propos de Mme Mitchell sont tirés d’une lettre qu’elle a écrit et publié après le départ de son co-responsable, Timnit Gebru, en décembre. Gebru a clairement indiqué qu’elle avait été licenciée par Google, ce que Mitchell soutient dans sa lettre. Jeff Dean, responsable de l’IA chez Google, a écrit dans un courriel interne au personnel que la société avait accepté la démission de Gebru. Les anciens collègues de Gebru proposent un néologisme pour désigner cette affaire : Gebru a été “démissionné” par Google.

gebru-and-mitchell.png

Margaret Mitchell (à droite), a été licenciée dans la foulée du renvoi de Timnit Gebru.

J’ai été licenciée par @JeffDean pour mon courriel adressé à Brain women and Allies. Mon compte de corp a été coupé. J’ai donc été licencié immédiatement 🙂

Mitchell, qui s’est indigné de la façon dont Gebru a été traité par Google, a été licencié en février.

Le départ des deux principaux chercheurs en éthique de Google a jeté un froid sur l’éthique d’entreprise de Google, sans parler de ses scrupules en matière d’IA.

Le mois dernier, deux universitaires invités à participer à une conférence de Google sur la sécurité en robotique en mars se sont retirés de la conférence pour protester contre le traitement de Gebru et Mitchell. Un troisième universitaire a déclaré que son laboratoire, qui a reçu des fonds de Google, ne demanderait plus de fonds à Google, également en soutien aux deux professeurs.

Du personnel de Google a démissionné en février pour protester contre le traitement réservé à Gebru et Mitchell. Et Sammy Bengio, un éminent chercheur de l’équipe IA de Google qui a aidé à recruter Gebru, a démissionné ce mois-ci pour protester contre le traitement de Gebru et Mitchell.

Une pétition sur Medium signée par 2 695 membres du personnel de Google et 4 302 personnes extérieures exprime son soutien à Gebru et demande à l’entreprise de “renforcer son engagement en faveur de l’intégrité de la recherche et de s’engager sans équivoque à soutenir la recherche qui respecte les engagements pris dans les principes de l’IA de Google”.

La situation de Gebru est un exemple de la manière dont la technologie n’est pas neutre indiquent les universitaires du MIT Katlyn Turner, Danielle Wood, Catherine D’Ignazio dans un essai publié en janvier.

Lors d’une discussion sur l’IA en décembre, AI Debate 2, Celeste Kidd, professeur à l’UC Berkeley, réfléchissant à ce qui était arrivé à Gebru, a fait remarquer : “L’IA vit actuellement une période terrifiante.”

“Ce que Timnit a vécu chez Google est la norme, en entendre parler est ce qui est inhabituel”, a déclaré Kidd.

La remise en question de l’IA et de la façon dont elle est pratiquée, ainsi que le phénomène des entreprises qui réagissent en conséquence, surviennent alors que la mise en œuvre commerciale et gouvernementale de l’IA rend les enjeux encore plus importants.

Risque de l’IA dans le monde

Les questions éthiques prennent une plus grande résonance lorsque l’IA s’étend à des utilisations très éloignées du développement universitaire initial des algorithmes.

L’industrialisation de la technologie amplifie l’utilisation quotidienne de ces algorithmes. Un article de BuzzFeed a révélé que “plus de 7 000 personnes de près de 2 000 organismes publics dans tout le pays ont utilisé la technologie de la startup Clearview AI pour rechercher des visages de millions d’Américains, à la recherche de personnes, y compris des manifestants de Black Lives Matter, des insurgés du Capitole, des petits criminels, ainsi que leurs propres amis et membres de leur famille.”

Clearview n’a ni confirmé ni infirmé ces informations.

De nouveaux appareils s’appuient d’une manière ou d’une autre sur des formes d’apprentissage automatique. Par exemple, le transport routier dit “autonome” fait son apparition sur les autoroutes, où un tracteur semi-remorque “ADAS de niveau 4” est censé pouvoir se déplacer sans conducteur humain.

Une société fabriquant cette technologie, TuSimple, de San Diego, en Californie, va entrer en bourse sur le Nasdaq. Dans son prospectus d’introduction en bourse, la société indique qu’elle a déjà enregistré 5 700 réservations au cours des quatre mois qui ont suivi l’annonce de la disponibilité de son logiciel de conduite autonome pour les camions. Lorsqu’un camion roule à grande vitesse, transportant une énorme charge, s’assurer que le logiciel d’IA conduit le véhicule en toute sécurité est clairement une priorité pour la société.

tusimple-autonomous-semi-truck-2021.jpg

TuSimple affirme avoir enregistré près de 6 000 précommandes pour un semi-remorque sans conducteur. Lorsqu’un camion roule à grande vitesse, transportant une énorme charge, s’assurer que le logiciel d’IA conduit le véhicule en toute sécurité est clairement une priorité pour la société.

Un autre sujet de préoccupation est l’IA appliquée dans le domaine des activités militaires et policières.

Arthur Holland Michel, auteur d’un livre détaillé sur la surveillance militaire, Eyes in the Sky, a décrit comment ImageNet a été utilisé pour améliorer les systèmes de surveillance de l’armée américaine. Pour tous ceux qui considèrent la surveillance comme un outil utile pour assurer la sécurité des personnes, ce sont des nouvelles encourageantes. Pour tous ceux qui s’inquiètent des problèmes de surveillance sans contrôle civil, il s’agit d’une expansion inquiétante des applications de l’IA.

Contrecoup de la surveillance de masse

Des appels se font entendre pour que la surveillance de masse, rendue possible par des technologies telles que la reconnaissance faciale, ne soit pas utilisée du tout.

Le mois dernier, 51 organisations, dont AlgorithmWatch et la Société numérique européenne, ont envoyé une lettre à l’Union européenne pour demander une interdiction totale de la surveillance.

Et il semble qu’il y aura des restrictions après tout. Après un rapport détaillé sur les risques il y a un an, un livre blanc complémentaire et la sollicitation de commentaires de la part de nombreuses “parties prenantes”, la Commission européenne a publié ce mois-ci sa proposition de “règles harmonisées sur l’intelligence artificielle pour l’IA“. Parmi les conditions, on trouve une limitation de l’utilisation par les forces de l’ordre de la reconnaissance faciale en public.

L’utilisation de systèmes d’identification biométrique à distance “en temps réel” dans des espaces accessibles au public à des fins répressives est également interdite, sauf si certaines exceptions limitées s’appliquent”, indique le rapport.

Surtout que les critiques de la surveillance trouvent nombre d’exemples pour appuyer leurs craintes. L’exemple paradigmatique a été la surveillance des Ouïghours dans la région chinoise du Xianxjang. À la suite d’un coup d’État militaire en février en Birmanie, Human Rights Watch rapporte que les droits de l’homme sont mis à mal compte tenu du système de surveillance mis en place. Ce projet, appelé Safe City, a été déployé dans la capitale Naypidaw, en décembre.

Comme l’a déclaré un chercheur à Human Rights Watch, “Avant le coup d’État, le gouvernement du Myanmar a tenté de justifier les technologies de surveillance de masse au nom de la lutte contre la criminalité, mais ce qu’il fait, c’est donner du pouvoir à une junte militaire abusive.”

Par ailleurs, l’IA est devenue une course aux armements entre Etats. Ils ont fait de l’IA une question de politique nationale pour éviter ce qui est présenté comme un risque existentiel. La Commission de sécurité nationale américaine sur l’IA, composée de grands noms de la technologie tels que l’ancien PDG de Google Eric Schmidt, le PDG d’Oracle Safra Catz et le futur PDG d’Amazon Andy Jassy, a publié le mois dernier son “rapport final” de 756 pages sur ce qu’elle appelle la “stratégie pour gagner l’ère de l’intelligence artificielle”.

Les auteurs “craignent que les outils d’IA ne deviennent des armes de premier recours dans les conflits futurs”, écrivent-ils, notant que “les États adverses utilisent déjà des attaques de désinformation basées sur l’IA pour semer la division dans les démocraties et ébranler notre sens de la réalité.”

Raisons des préoccupations éthiques dans le domaine de l’IA

Pourquoi ces questions surgissent-elles ? Il y a des questions de justice et d’autoritarisme qui sont intemporelles, mais il y a aussi de nouveaux problèmes avec l’arrivée de l’IA, et en particulier sa variante moderne, le deep learning, ou apprentissage profond.

Prenons l’exemple de l’incident entre Google et les universitaires Gebru et Mitchell. Au cœur du conflit se trouve un document de recherche que les deux femmes préparaient pour une conférence, qui cristallise un questionnement sur l’état de l’art en matière d’IA.

stochastic-parrots-clipping-2021.jpg

L’article qui a déclenché une controverse chez Google : Gebru et Bender ainsi que Major et Mitchell soutiennent que les très grands modèles de langage tels que le BERT de Google présentent deux dangers : une consommation massive d’énergie et la perpétuation de biais.

L’article, coécrit par Emily Bender de l’université de Washington, Gebru, Angelina McMillan-Major, également de l’université de Washington, et Mitchell, intitulé “On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ?” porte sur un sujet de l’apprentissage automatique appelé traitement du langage naturel, ou NLP.

Les auteurs décrivent comment les modèles de langage tels que GPT-3 sont devenus de plus en plus grands, pour aboutir à de très grands modèles de langage “pré-entraînés”, dont le Switch Transformer de Google, également connu sous le nom de Switch-C, qui semble être le plus grand modèle publié à ce jour. Switch-C utilise 1,6 trillion de “poids” neuronaux, ou paramètres, et est entraîné sur un corpus de 745 gigaoctets de données textuelles.

Les auteurs identifient deux risques. Le premier est l’impact environnemental de modèles de plus en plus grands tels que Switch-C. Ces modèles consomment des quantités massives de calcul et génèrent des quantités croissantes de dioxyde de carbone. Le second problème est la reproduction de biais dans la génération des chaînes de texte produites par les modèles.

Le problème de l’environnement est l’un des exemples les plus frappants de la question de l’échelle. L’état de l’art dans le domaine de la PNL, et, en fait, dans une grande partie de l’apprentissage profond, consiste à utiliser de plus en plus de puces GPU, des puces Nvidia et AMD, pour faire fonctionner des programmes toujours plus grands. La précision de ces modèles semble augmenter, de manière générale, avec la taille.

Mais il y a un coût environnemental. Bender et son équipe citent des recherches antérieures qui ont montré que la formation d’un grand modèle de langage, une version du Transformer de Google plus petite que le Switch-C, émettait 284 tonnes de dioxyde de carbone, soit 57 fois plus de CO2 que ce qu’un être humain est censé rejeter dans l’environnement en un an.

Il est ironique, notent les auteurs, que le coût toujours plus élevé pour l’environnement de ces énormes fermes de GPU ait un impact immédiat sur les communautés les plus exposées au risque de changement dont les langues ne sont même pas prises en compte par ces modèles linguistiques, en particulier la population de l’archipel des Maldives, dans la mer d’Arabie, dont la langue officielle est le dhivehi, une branche de la famille indo-aryenne :

“Est-il juste ou équitable de demander, par exemple, que les habitants des Maldives (qui seront probablement sous l’eau d’ici 2100) ou les 800 000 personnes au Soudan touchées par des inondations dramatiques paient le prix environnemental de la formation et du déploiement de LM [modèles de langue] anglais de plus en plus grands, alors que des modèles à grande échelle similaires ne sont pas produits pour le dhivehi ou l’arabe soudanais ?”

La deuxième préoccupation concerne la tendance de ces grands modèles à perpétuer les préjugés contenus dans les dataset, qui sont souvent des textes accessibles au public, récupérés dans des endroits tels que Reddit. Si ce texte contient des préjugés, ces préjugés seront capturés et amplifiés dans les résultats générés.

Le problème fondamental, encore une fois, est un problème d’échelle. Les ensembles d’apprentissage sont si grands qu’il n’est pas possible de documenter correctement les problèmes de partialité dans le code, ni de les traiter correctement pour les éliminer.

“Les grands [modèles de langage] encodent et renforcent les préjugés hégémoniques, les préjudices qui en découlent sont plus susceptibles de tomber sur les populations marginalisées”, écrivent les auteurs.

Éthique de l’efficacité des calculs

Le risque lié à l’énorme coût de calcul pour des modèles toujours plus grands fait l’objet d’un débat depuis un certain temps déjà. Une partie du problème réside dans le fait que les mesures de performance, notamment la consommation d’énergie, sont souvent entourées de secret.

Certains tests de référence dans le domaine de l’IA s’améliorent. MLPerf, la principale mesure des performances de formation et d’inférence des réseaux neuronaux, s’efforce de fournir des mesures plus représentatives des systèmes d’IA pour des charges de travail particulières. Ce mois-ci, l’organisation qui supervise le benchmark MLPerf standard de l’industrie, le MLCommons, a demandé pour la première fois aux fournisseurs d’indiquer non seulement les performances mais aussi l’énergie consommée pour ces tâches d’apprentissage automatique.

Quelles que soient les données, le fait est que les systèmes sont de plus en plus gros. La réponse au problème de l’énergie dans le domaine a été double : construire des ordinateurs plus efficaces pour traiter les grands modèles et développer des algorithmes qui calculeront l’apprentissage profond de manière plus intelligente que de simplement injecter plus d’ordinateurs dans le problème.

wse2-dinner-plate.jpg

Le Wafer Scale Engine de Cerebras est l’état de l’art de l’informatique de l’IA, la plus grande puce du monde.

Dans le premier cas, une multitude de startups ont vu le jour pour proposer des ordinateurs dédiés à l’IA qu’elles disent être beaucoup plus efficaces que les centaines ou milliers de GPU de Nvidia ou AMD nécessaires aujourd’hui.

Parmi elles, citons Cerebras Systems, qui a mis au point la plus grande puce informatique du monde, Graphcore. Il s’agit de la première entreprise à proposer un système de calcul dédié à l’IA, avec sa propre architecture de puce. Par ailleurs SambaNova Systems a reçu plus d’un milliard de dollars de capital-risque pour vendre à la fois des systèmes et une offre d’IA as a Service.

“Ces modèles de très grande taille nécessitent un nombre considérable de GPU rien que pour contenir les données”, explique Kunle Olukotun, professeur d’informatique à l’université de Stanford et cofondateur de SambaNova, en faisant référence à des modèles de langage tels que BERT de Google.

“Fondamentalement, si vous pouvez permettre à quelqu’un de former ces modèles avec un système beaucoup plus petit, alors vous pouvez former le modèle avec moins d’énergie, et vous démocratiseriez la capacité de jouer avec ces grands modèles”, en impliquant plus de chercheurs, dit-il.

Ceux qui conçoivent des réseaux neuronaux d’apprentissage profond explorent simultanément les moyens de rendre les systèmes plus efficaces. Par exemple, le “Switch Transformer” de Google, le très grand modèle de langage auquel Bender et son équipe font référence, peut atteindre un point optimal dans sa formation avec beaucoup moins que ses 1,6 trillion de paramètres maximum, selon l’auteur William Fedus et ses collègues de Google.

Le logiciel “est également une architecture efficace à petite échelle ainsi que dans des régimes avec des milliers de cœurs et des trillions de paramètres”, écrivent-ils.

La clé, écrivent-ils, est l’utilisation d’une propriété appelée sparsité (sparsity), qui élague les poids qui sont activés pour chaque échantillon de données.

chen-et-al-hashing-approach-2021.jpg

Des scientifiques de l’université Rice et d’Intel proposent de réduire le budget de calcul des grands réseaux neuronaux en utilisant une table de hachage qui sélectionne les activations du réseau neuronal pour chaque entrée, une sorte d’élagage du réseau.

Une autre approche pour travailler plus intelligemment est une technique appelée “hashing” (hachage). Cette approche est incarnée par un projet appelé “Slide“, présenté l’année dernière par Beidi Chen de l’université Rice et des collaborateurs d’Intel. Ils utilisent ce qu’on appelle une table de hachage pour identifier les neurones individuels d’un réseau neuronal dont on peut se passer, réduisant ainsi le budget global de calcul.

Chen et son équipe appellent cela la “sparsification sélective”, et ils démontrent que l’exécution d’un réseau neuronal peut être 3,5 fois plus rapide sur un CPU 44 cœurs que sur un GPU Nvidia Tesla V100.

Tant que de grandes entreprises comme Google et Amazon domineront l’apprentissage profond dans la recherche et la mise en production, il est possible que le principe “bigger is better” domine les réseaux neuronaux. Si des utilisateurs plus petits et moins riches en ressources se lancent dans l’apprentissage profond dans des installations plus petites, alors des algorithmes plus efficaces pourraient gagner de nouveaux adeptes.

L’éthique de l’IA : une histoire récente

La deuxième question, celle des préjugés en matière d’IA, lie l’article de Bender et al. à un article de 2018 qui a marqué le début de l’ère actuelle de l’éthique de l’IA.

gender-shades-benchmark-example-2018.jpg

Buolamwini et Gebru ont attiré l’attention internationale sur la question des préjugés dans l’IA avec leur article de 2018 intitulé “Gender Shades : Intersectional Accuracy Disparities in Commercial Gender Classification”, qui a révélé que les systèmes de reconnaissance faciale présentaient “des disparités substantielles dans la précision de la classification des femmes aux teints plus sombres, des femmes aux teints plus clairs, des hommes aux teints plus sombres et des hommes aux teints plus clairs dans les systèmes de classification des sexes.” Buolamwini et al. 2018

Cet article de 2018, “Gender Shades : Intersectional Accuracy Disparities in Commercial Gender Classification“, a également été rédigé par Gebru, alors chez Microsoft, avec Joy Buolamwini, chercheuse au MIT. Elles ont démontré que les systèmes de reconnaissance faciale disponibles dans le commerce avaient une grande précision lorsqu’ils traitaient des images d’hommes à la peau claire, mais une inexactitude catastrophique lorsqu’ils traitaient des images de femmes à la peau plus foncée. La question des auteurs était de savoir pourquoi une telle imprécision était tolérée dans les systèmes commerciaux.

Buolamwini et Gebru ont présenté leur article lors de la Conférence sur l’équité, la responsabilité et la transparence de l’Association for Computing Machinery.

Qu’est-ce que le biais dans l’IA ?

Les deux articles traitent tous deux d’une préoccupation éthique centrale en matière d’IA, à savoir la notion de partialité. L’IA, dans sa forme d’apprentissage automatique, fait largement appel aux principes de la statistique. En statistiques, on parle de biais lorsqu’une estimation de quelque chose ne correspond pas à la quantité réelle de cette chose.

Ainsi, par exemple, si un sondeur politique effectue un sondage sur les préférences des électeurs, s’il ne reçoit que des réponses de personnes qui parlent aux sondeurs, il peut obtenir ce que l’on appelle un biais de réponse, dans lequel son estimation de la préférence pour la popularité d’un certain candidat n’est pas un reflet exact de la préférence dans la population.

L’article de 2018 a innové en montrant comment un algorithme, dans ce cas la reconnaissance faciale, peut être extrêmement décalé par rapport à la vérité, une forme de biais qui frappe un sous-groupe particulier de la population.

Il montre comment ce biais statistique a été exacerbé par des effets d’échelle de deux manières particulières. D’une part, les ensembles de données ont proliféré et leur échelle a augmenté, ce qui obscurcit leur composition. Une telle obscurité peut masquer la façon dont les données peuvent déjà être biaisées par rapport à la vérité.

Deuxièmement, les programmes NLP tels que GPT-3 sont génératifs, ce qui signifie qu’ils inondent le monde d’une quantité incroyable d’artefacts technologiques, tels que l’écriture générée automatiquement. En créant de tels artefacts, les préjugés peuvent être reproduits et amplifiés dans le processus, ce qui les fait proliférer.

Questionner la provenance des données de l’IA

En ce qui concerne le premier point, l’échelle des ensembles de données, les chercheurs ont plaidé pour aller au-delà de la simple modification d’un système d’apprentissage automatique afin d’atténuer les préjugés, et pour examiner les ensembles de données utilisés pour former ces modèles, afin d’explorer les préjugés qui se trouvent dans les données elles-mêmes.

mitchell-model-cards-example.jpg

Avant d’être renvoyée de l’équipe “Ethical AI” de Google, Mitchell a dirigé son équipe pour développer un système appelé “Model Cards”, qui permet de déterrer les biais cachés dans les ensembles de données. Chaque carte modèle présentait les mesures d’un modèle de réseau neuronal donné, par exemple un algorithme permettant de trouver automatiquement des “photos souriantes”, en indiquant son taux de faux positifs et d’autres mesures. Mitchell et al.

Un exemple est une approche créée par Mitchell et son équipe chez Google, appelée cartes modèles. Comme l’explique l’article d’introduction, “Model cards for model reporting“, les ensembles de données doivent être considérés comme une infrastructure. Cela permet d’exposer les “conditions de leur création”, qui sont souvent occultées. La recherche suggère de traiter les ensembles de données comme une question d'”ingénierie axée sur les objectifs” et de poser des questions essentielles, comme celle de savoir si l’on peut faire confiance aux ensembles de données et s’ils comportent des biais.

Un autre exemple est un article publié l’année dernière dans The State of AI Ethics, par Emily Denton et ses collègues de Google, “Bringing the People Back In“, dans lequel ils proposent ce qu’ils appellent une généalogie des données, dans le but “d’étudier comment et pourquoi ces ensembles de données ont été créés, quelles valeurs et celles qui influencent le choix des données à collecter, les conditions contextuelles et contingentes de leur création, et l’émergence des normes et standards actuels de la pratique des données”.

prabhu-suscrptibility-of-imagenet-2020.png

Vinay Prabhu, scientifique en chef chez UnifyID, a décrit, lors d’un exposé à Stanford l’année dernière, la possibilité de prendre des images de personnes dans ImageNet, de les introduire dans un moteur de recherche et de découvrir qui sont ces personnes dans le monde réel. Selon lui, c’est la “phase de susceptibilité” des ensembles de données qui permet de cibler les personnes dont on s’est approprié l’image. Prabhu 2020

Des chercheurs ont déjà mis en lumière les circonstances troubles de certains des ensembles de données les plus importants utilisés dans les modèles dominants de PNL. Par exemple, Vinay Uday Prabhu, scientifique en chef de la start-up UnifyID Inc. a examiné l’année dernière, dans le cadre d’une conférence virtuelle à l’université de Stanford, le jeu de données ImageNet, une collection de 15 millions d’images étiquetées avec des descriptions.

L’introduction d’ImageNet en 2009 a sans doute marqué le début de l’ère de l’apprentissage profond. ImageNet présente toutefois des problèmes, notamment le fait qu’il s’est approprié des photos personnelles de Flickr sans consentement, a expliqué M. Prabhu.

Ces photos, a expliqué M. Prabhu, tombent entre les mains de milliers d’entités dans le monde entier, ce qui entraîne un risque personnel très réel, ce qu’il a appelé la “phase de susceptibilité”, une atteinte massive à la vie privée.

En utilisant ce qu’on appelle la recherche inversée d’images, via un service en ligne, M. Prabhu a pu prendre des photos ImageNet de personnes et “déterminer très facilement qui elles étaient dans le monde réel.” Selon M. Prabhu, les entreprises telles que Clearview ne sont qu’un symptôme de ce problème plus large d’une sorte d’invasion industrialisée de la vie privée.

Un projet ambitieux a cherché à cataloguer ces détournements. Appelé Exposing.ai, il est l’œuvre d’Adam Harvey et de Jules LaPlace, et a été officiellement lancé en janvier. Les auteurs ont passé des années à retracer la façon dont les photos personnelles ont été appropriées sans consentement pour être utilisées dans des ensembles d’apprentissage automatique.

Le site est un moteur de recherche qui permet de “vérifier si vos photos Flickr ont été utilisées dans des dizaines d’ensembles de données d’images biométriques et de visages publics parmi les plus utilisés et les plus cités […] pour former, tester ou améliorer les technologies de surveillance de l’intelligence artificielle dans des applications universitaires, commerciales ou liées à la défense”, comme le décrivent Harvey et LaPlace.

Le côté obscur de la collecte de données

Certains affirment que le problème va au-delà du simple contenu des données et concerne les moyens de les produire. Le service Mechanical Turk d’Amazon est omniprésent pour employer des humains pour préparer de vastes ensembles de données, par exemple en appliquant des étiquettes aux images pour ImageNet ou en évaluant les conversations des robots de chat.

Dans un article paru le mois dernier, Aliide Naylor, de Vice, citait des travailleurs du service Mechanical Turk qui se sentaient parfois contraints de produire des résultats conformes à un objectif prédéterminé.

turkopticon-score-board.jpg

Turkopticon vise à fournir aux travailleurs de Mechanical Turk d’Amazon des évaluations honnêtes des conditions de travail pour les différents clients. Turkopticon

Un projet appelé Turkopticon a vu le jour pour recueillir les avis de la foule sur les parties contractantes de Mechanical Turk, afin d’aider les travailleurs qui utilisent ce système à éviter les clients douteux. Il s’agit d’une tentative d’améliorer le sort de ceux que beaucoup considèrent comme des travailleurs à la chaîne, ce que Mary Gray et Siddharth Suri de Microsoft ont appelé le “travail fantôme“.

Certains signes montrent que le message concernant les ensembles de données est passé auprès des grandes organisations pratiquant l’apprentissage profond. Ce mois-ci, Facebook a annoncé un nouvel ensemble de données qui a été créé non pas en s’appropriant des images personnelles, mais plutôt en réalisant des vidéos originales de plus de trois mille acteurs rémunérés qui ont donné leur consentement pour apparaître dans les vidéos.

L’article de Caner Hazirbas et de ses collègues explique que l’ensemble de données “Casual Conversations” se distingue par le fait que “les annotations relatives à l’âge et au sexe sont fournies par les sujets eux-mêmes.” Le type de peau de chaque personne a été annoté par les auteurs à l’aide de l’échelle de Fitzpatrick, la même mesure que celle utilisée par Buolamwini et Gebru dans leur article sur les nuances de genre. En fait, Hazirbas et son équipe citent bien en évidence l’article Gender Shades comme précédent.

Hazirbas et ses collègues ont constaté, entre autres, que lorsque les systèmes d’apprentissage automatique sont testés par rapport à ce nouvel ensemble de données, certains des échecs identifiés par Buolamwini et Gebru apparaissent. “Nous avons remarqué un biais algorithmique évident en faveur des sujets à la peau claire”, écrivent-ils.

Outre les résultats, l’une des lignes les plus révélatrices de l’article est un changement potentiel d’attitude dans l’approche de la recherche, un côté humaniste au milieu de l’ingénierie.

“Nous préférons cette approche centrée sur l’humain et pensons qu’elle permet à nos données d’avoir une vision relativement impartiale de l’âge et du sexe”, écrivent Hazirbas et son équipe.

facebook-casual-conversations-example-2021.jpg

L’ensemble de données Casual Conversations de Facebook, publié en avril, se présente comme une façon plus honnête d’utiliser les ressemblances pour l’apprentissage de l’IA. L’entreprise a payé des acteurs pour qu’ils posent pour des vidéos et a évalué leur teint sur la base d’une échelle dermotologique. Hazirbas et al.

Un autre développement fascinant est la décision de MLCommons, le consortium industriel qui crée le benchmark MLPerf, de créer un nouvel ensemble de données à utiliser dans la conversion de la parole en texte, la tâche consistant à convertir une voix humaine en une chaîne de texte générée automatiquement.

L’ensemble de données, The People’s Speech, contient 87 000 heures de conversation. Il est destiné à former des assistants audio tels que l’Alexa d’Amazon. L’intérêt de cet ensemble de données est qu’il est proposé sous une licence open-source et qu’il est censé être diversifié : il contient des discours dans 59 langues.

Le groupe affirme : “Avec People’s Speech, MLCommons créera des opportunités pour étendre la portée des technologies vocales avancées à beaucoup plus de langues et contribuera à offrir les avantages de l’assistance vocale à l’ensemble de la population mondiale plutôt que de la confiner aux locuteurs des langues les plus courantes.”

Génératif : la montée du fake

Les problèmes éthiques de biais sont amplifiés par un deuxième facteur. Le fait que les réseaux neuronaux sont de plus en plus “génératifs”, c’est-à-dire qu’ils ne se contentent pas de servir d’outils de décision, comme un programme classique d’apprentissage automatique par régression linéaire. Ils inondent le monde de créations diverses et variées.

L’exemple classique est ” StyleGAN “, introduit en 2018 par Nvidia et mis à disposition sur Github. Le logiciel peut être utilisé pour générer des visages réalistes : Il a donné naissance à une ère de fausses ressemblances.

Le AI Index Report de Stanford, publié en mars, dresse chaque année un état des lieux des différents aspects de l’IA. La dernière édition décrit ce qu’elle appelle le “tout génératif”, la prévalence de ces nouveaux artefacts numériques.

“Les systèmes d’IA peuvent désormais composer du texte, du son et des images à un niveau suffisamment élevé pour que les humains aient du mal à faire la différence entre des résultats synthétiques et non synthétiques pour certaines applications limitées de la technologie”, note le rapport. “Cela promet de générer un énorme éventail d’applications en aval de l’IA à des fins socialement utiles et moins utiles.”

nvidia-2018-stylegan.jpg

Aucune de ces personnes n’est réelle. En 2019, Tero Karras et ses collègues ont stupéfié le monde avec de fausses ressemblances étonnamment habiles, qu’ils ont créées avec un nouvel algorithme qu’ils ont appelé une architecture de générateur basée sur le style pour les réseaux adversariaux génératifs, ou StyleGAN. Crédit : Kerras et al. 2019

Les inconvénients potentiels de l’IA générative sont nombreux.

Il y a la propagation de textes qui essaiment les biais sociétaux. Mais il y a d’autres types de biais qui peuvent être créés par les algorithmes. Il s’agit, par exemple, des algorithmes dont l’objectif est de classer les visages humains dans des catégories d'”attractivité” ou de “non-attractivité”. Les algorithmes dits génératifs, tels que les GAN, peuvent être utilisés pour reproduire une formulation de ce qui est prétendument attrayant afin d’inonder le monde de cette esthétique particulière à l’exclusion de toute autre.

En s’appropriant des données et en les remodelant, les GAN soulèvent toutes sortes de nouvelles questions éthiques sur la paternité, la responsabilité et le crédit. Des œuvres d’art génératives ont été vendues aux enchères pour de grosses sommes d’argent. Mais de qui sont-elles les œuvres ? Si elles s’approprient du matériel existant, comme c’est le cas dans de nombreuses machines GAN, à qui revient le mérite ? Est-ce l’ingénieur qui a construit l’algorithme, ou les artistes dont le travail a été utilisé pour entraîner l’algorithme ?

Il y a aussi la vague DeepFake, où de fausses images et de faux enregistrements, de faux textes et de fausses vidéos peuvent induire les gens en erreur sur les circonstances des événements.

image.jpg

Cette personne n’existe pas, elle est fabriquée via un logiciel dérivé de StyleGAN.

Un domaine émergent est la concoction de fausses identités. Grâce à des sites tels que thispersondoesnotexist.com, construit à partir du code StyleGAN, les gens peuvent se concocter des visages convaincants qui sont un amalgame de caractéristiques. Le chercheur Rumman Chowdhury a fait remarquer que ces faux visages peuvent être utilisés pour créer de faux comptes sur les réseaux sociaux. Ce qui permet d’harceler d’autres personnes sur les médias sociaux.

Le spécialiste du capital-risque Konstantine Buehler, de Sequoia Capital, a estimé que les personnalités inventées, deviendront de plus en plus un élément d’engagement en ligne des gens.

Les fausses personnalités, les DeepFakes, l’amplification des préjugés amplifiés ont un point commun : il s’agit de la diffusion rapide d’artefacts numériques sans pratiquement aucune surveillance.

Classification des risques liés à l’IA

L’un des principaux défis de l’éthique de l’IA consiste simplement à définir correctement le problème. Ces dernières années, une quantité substantielle d’études a été consacrée à la détermination de la portée et de l’ampleur des questions éthiques.

Par exemple, l’organisation à but non lucratif Future of Life a accordé 2 millions de dollars de subventions à dix projets de recherche sur ce sujet en 2018, financés par Elon Musk. Des tonnes de rapports et de propositions ont été produits par les institutions au cours des dernières années. Et l’éthique de l’IA a désormais un rôle central dans de nombreuses entreprises.

Une étude de l’IA par Capgemini publiée en octobre dernier, “AI and the Ethical Conundrum”, a identifié quatre vecteurs d’éthique dans l’apprentissage automatique : l’explicabilité, l’équité, la transparence et l’auditabilité, c’est-à-dire la capacité d’auditer un système d’apprentissage automatique pour déterminer son fonctionnement. Selon Capgemini, seule l’explicabilité a montré des progrès entre 2019 et 2020, tandis que les trois autres n’ont “pas réussi à évoluer.”

Un rapport de janvier intitulé “The State of AI Ethics“, publié par l’Institut d’éthique de l’IA de Montréal propose un résumé très utile des nombreuses questions relatives à l’éthique de l’IA. Cette publication de recherche rassemble de nombreux articles scientifiques originaux, ainsi que des articles de presse, les résume et les organise par thème. Le rapport montre que les questions d’éthique couvrent un spectre beaucoup plus large que ce que l’on pourrait croire. Il s’agit notamment de l’injustice algorithmique, de la discrimination, de l’impact sur le travail, de la désinformation, de la vie privée, du risque et de la sécurité.

Essayer de mesurer l’éthique

Selon certains chercheurs qui ont passé du temps à examiner les données sur l’éthique, un facteur limitatif clé est qu’il n’y a pas assez de données quantitatives. C’est l’une des conclusions présentées le mois dernier dans le quatrième rapport annuel AI Index, publié par l’université de Stanford. Dans le chapitre consacré à l’éthique, les chercheurs ont été “surpris de découvrir le peu de données disponibles sur ce sujet”.

“Bien qu’un certain nombre de groupes produisent une série de résultats qualitatifs ou normatifs dans le domaine de l’éthique de l’IA”, écrivent les auteurs, “le domaine manque généralement de repères pouvant être utilisés pour mesurer ou évaluer la relation entre les discussions sociétales plus larges sur le développement de la technologie et le développement de la technologie elle-même.”

ai-index-clipping.jpg

L’université de Stanford produit chaque année le AI Index Report, un résumé des tendances les plus significatives de l’IA, y compris les préoccupations éthiques. Stanford HAI

Les tentatives de mesure de l’éthique soulèvent des questions sur ce que l’on essaie de mesurer. Prenons l’exemple de la partialité. Il semble assez simple de dire que la réponse à la partialité consiste à corriger une distribution statistique pour obtenir une plus grande “équité”. Certains ont suggéré que cette approche était trop simpliste.

L’un des projets de Mme Mitchell, lorsqu’elle travaillait chez Google, consistait à repousser les limites de la discussion sur les préjugés au-delà des questions d’équité et de signification, en s’interrogeant sur la signification de l’équilibre dans les ensembles de données pour différentes populations dans le contexte de la justice.

Dans un travail réalisé l’année dernière, “Diversity and Inclusion Metrics in Subset Selection“, Mitchell et son équipe ont appliqué la théorie des ensembles pour créer un cadre quantifiable permettant de déterminer si un algorithme donné augmente ou diminue le degré de “diversité” et d'”inclusion”. Ces termes vont au-delà de la représentation d’un groupe particulier de la société et mesurent plutôt le degré de présence d’attributs dans un groupe, par exemple le sexe ou l’âge.

En utilisant cette approche, on peut commencer à faire des choses telles que mesurer un ensemble de données donné pour savoir dans quelle mesure il répond aux “objectifs éthiques”, par exemple l’égalitarisme, qui “favoriserait les individus mal desservis qui partagent un attribut”.

Établir un code d’éthique

Un certain nombre d’institutions se sont déclarées en faveur de l’éthique sous une forme ou une autre, bien que le bénéfice de ces déclarations soit sujet à débat.

L’une des déclarations de principe les plus célèbres est la Déclaration de Montréal sur l’IA responsable de 2018, de l’Université de Montréal. Cette déclaration définit de nombreux objectifs ambitieux, tels que l’autonomie des êtres humains et la protection de la vie privée des individus.

montreal-declaration-preamble.jpg

La Déclaration de Montréal de l’Université de Montréal est l’une des déclarations de principe les plus connues sur l’IA.

Parmi les institutions qui ont pris position sur l’éthique de l’IA, on trouve des entreprises technologiques de premier plan comme IBM, SAP, Microsoft, Intel et Baidu, des organisations techniques prestigieuses comme l’IEEE et des organismes spécialement créés comme le Groupe européen d’éthique des sciences et des nouvelles technologies de la Commission européenne.

Une liste des institutions qui se sont déclarées en faveur de l’éthique dans le domaine de l’IA depuis 2015 a été compilée par le cabinet de recherche The AI Ethics Lab. Au dernier décompte, la liste comptait 117 organisations. Mais une étude du AI Ethics Lab publiée en décembre dans la prestigieuse revue Communications of the ACM, a conclu que toutes les réflexions approfondies de ces organisations ne pouvaient pas vraiment être mises en pratique.

Comment rendre l’éthique opérationnelle dans l’IA ?

L’accent mis sur l’opérationnalisation de l’IA devient une tendance. Un livre actuellement sous presse d’Abhishek Gupta de Microsoft, Actionable AI Ethics, dont la sortie est prévue cette année, aborde également le thème de l’opérationnalisation. Gupta est le fondateur de l’Institut d’éthique de l’IA de Montréal. Abhishek Gupta affirme que son livre permettra de distinguer le signal du bruit dans le “paysage fragmenté des outils et des cadres de l’éthique de l’IA”. Le livre promet d’aider les organisations à “susciter un haut degré de confiance de la part de leurs clients dans les produits et services qu’elles créent.”

Dans le même ordre d’idées, Ryan Calo, professeur de droit à l’université de Washington, a déclaré lors du AI Debate 2 en décembre que les principes sont problématiques car ils “ne sont pas auto-applicables”, étant donné qu'”aucune sanction n’est attachée à leur violation.”

“Les principes sont largement dépourvus de sens car, dans la pratique, ils sont conçus pour faire des affirmations que personne ne conteste”, a déclaré Caro. “Quelqu’un pense-t-il que l’IA ne devrait pas être sûre ?” Au lieu de cela, “ce que nous devons faire, c’est retrousser nos manches et évaluer comment l’IA affecte les affordances humaines, puis adapter notre système de lois à ce changement”.

“Ce n’est pas parce que l’IA ne peut pas être réglementée en tant que telle que nous ne pouvons pas modifier la loi en fonction de cette dernière.”

A qui appartient l’algorithme, d’ailleurs ?

L’IA, comme tout outil entre les mains des humains, peut faire du mal, comme l’a écrit l’ancien champion du monde d’échecs Gary Kasparov. “Un algorithme qui produit des résultats biaisés ou un drone qui tue des innocents n’agissent pas de manière intentionnelle ; ce sont des machines qui exécutent nos ordres aussi clairement qu’une main qui manie un marteau ou un pistolet”, écrit Kasparov dans son livre de 2017, Deep Thinking : Where machine intelligence ends and human creativity begins.

Le mois dernier, Twitter a annoncé ce qu’il appelle “l’apprentissage automatique responsable“, sous la direction du scientifique des données Chowdhury et de la chef de produit Jutta Williams. Dans leur billet inaugural sur le sujet, le duo écrit que l’objectif de Twitter ne sera pas seulement de parvenir à une IA “explicable”, mais aussi à ce qu’ils appellent un “choix algorithmique”.

“Le choix algorithmique permettra aux gens d’avoir plus d’informations et de contrôle pour façonner ce qu’ils veulent que Twitter soit pour eux”, écrivent-ils. “Nous sommes actuellement dans les premières étapes de l’exploration de cela et nous partagerons plus bientôt”.

AI : un champ trop étroit ?

L’effort d’éthique se heurte aux limites d’une discipline informatique qui, selon certains, s’intéresse trop peu à d’autres domaines de connaissance, y compris le type de questions philosophiques profondes soulevées par Marcel.

Dans un article publié le mois dernier par Inioluwa Deborah Raji de la Fondation Mozilla et ses collaborateurs, “You Can’t Sit With Us : Exclusionary Pedagogy in AI Ethics Education“, les chercheurs ont analysé plus de 100 programmes utilisés pour enseigner l’éthique de l’IA au niveau universitaire. Leur conclusion est que les efforts visant à insérer l’éthique dans l’informatique avec un “saupoudrage d’éthique et de sciences sociales” ne conduiront pas à un changement significatif dans la façon dont ces algorithmes sont créés et déployés.

En fait, la discipline devient de plus en plus insulaire, écrivent Raji et ses collaborateurs, en cherchant des solutions purement techniques au problème et en refusant d’intégrer ce qui a été appris dans les sciences sociales et d’autres domaines d’étude humanistes. “Une discipline qui a par ailleurs été critiquée pour son manque d’engagement éthique se charge maintenant d’inculquer la sagesse éthique à la prochaine génération d’étudiants”, voilà comment Raji et son équipe caractérisent la situation.

L’évolution de l’IA avec la conscience numérique

Le risque d’échelle évoqué dans ce guide laisse de côté un vaste terrain d’exploration de l’IA. Il s’agit de la perspective d’une intelligence artificielle que les humains pourraient reconnaître comme étant de type humain. On parle d'”intelligence artificielle générale” ou d’AGI (Artificiel General Intelligence).

Une telle intelligence soulève deux préoccupations. Que se passerait-il si une telle intelligence cherchait à promouvoir ses intérêts au détriment des intérêts humains ? Inversement, quelle obligation morale les humains ont-ils de respecter les droits d’une telle intelligence de la même manière que les droits humains doivent être considérés ?

Aujourd’hui, l’AGI relève principalement de la recherche philosophique. La sagesse conventionnelle veut que l’AGI ne soit pas pour demain, si tant est qu’elle puisse un jour être réalisée.

Dans le même temps, certains ont fait valoir que c’est précisément l’absence d’AGI qui est l’une des principales raisons pour lesquelles les préjugés et les autres maux de l’IA conventionnelle sont si répandus. Les ex employées de Google affirment que la question de l’éthique revient finalement à la qualité superficielle de l’apprentissage automatique, à sa tendance à saisir les propriétés statistiques de la forme du langage naturel sans véritable “compréhension”.

unadjustednonraw-thumb-c55c.jpg

Gary Marcus et Ernest Davis soutiennent dans leur livre Rebotting AI que le manque de bon sens dans les programmes d’apprentissage automatique est l’un des principaux facteurs des dommages potentiels causés par ces programmes.

Cette opinion fait écho aux préoccupations des praticiens de l’apprentissage automatique et de ses détracteurs.

Gary Marcus, professeur de psychologie à l’université de New York et entrepreneur en IA, l’un des critiques les plus virulents de l’apprentissage automatique. Il affirme qu’aucun système technique ayant un impact sur la vie humaine ne peut être fiable s’il n’a pas été développé avec une capacité de bon sens de niveau humain. Gary Marcus explore cet argument en détail dans son livre de 2019 Rebooting AI, écrit avec son collègue Ernest Davis.

Lors du débat sur l’IA 2, organisé par Marcus en décembre, des universitaires ont discuté de la manière dont la qualité superficielle de l’apprentissage automatique peut perpétuer les préjugés. Celeste Kidd, professeur à UC Berkeley, a fait remarquer que les systèmes d’IA pour la recommandation de contenu, comme sur les réseaux sociaux, peuvent pousser les gens vers “des croyances plus fortes et inexactes qui, malgré tous nos efforts, sont très difficiles à corriger”.

“Les préjugés des systèmes d’IA renforcent et consolident les préjugés des personnes qui les utilisent”, a déclaré Celeste Kidd.

L’IA pour le bien de l’humanité : Qu’est-ce qui est possible ?

Malgré les risques, une forte croyance en l’IA est la conviction que l’intelligence artificielle peut aider à résoudre certains des plus grands problèmes de la société. Tim O’Reilly, l’éditeur de livres techniques utilisés par plusieurs générations de programmeurs, estime que des problèmes tels que le changement climatique sont trop importants pour être résolus sans une certaine utilisation de l’IA.

Malgré les dangers de l’IA, la réponse est plus d’IA, pense-t-il, et non moins. “Laissez-moi vous dire que les problèmes auxquels nous sommes confrontés en tant que société sont si importants que nous allons avoir besoin de toute l’aide possible”, a déclaré O’Reilly à ZDNet.

Exprimant la dichotomie des bons et des mauvais effets, Steven Mills, qui supervise l’éthique de l’IA pour le Boston Consulting Group, écrit dans la préface de The State of AI Ethics que l’intelligence artificielle a une double nature :

 L’IA peut amplifier la propagation des fake news, mais elle peut aussi aider les humains à les identifier et à les filtrer ; les algorithmes peuvent perpétuer des préjugés sociétaux systémiques, mais ils peuvent aussi révéler des processus de décision injustes ; la formation de modèles complexes peut avoir une empreinte carbone importante, mais l’IA peut optimiser la production d’énergie et le fonctionnement des centres de données.

L’IA pour trouver les préjugés

Un exemple de l’utilité potentielle de l’IA est l’utilisation de l’apprentissage automatique pour découvrir les préjugés. Une étude de ce type a été publiée en novembre dans la revue Nature. Elle portait sur une expérience menée par Dominik Hangartner et ses collègues de l’ETH Zurich et de la London School of Economics. Les auteurs ont examiné les clics sur les annonces d’emplois publiées sur un site web par des recruteurs en Suisse. Ils ont démontré que l’origine ethnique et le sexe avaient un effet négatif significatif sur la probabilité d’obtenir une offre d’emploi, l’inégalité réduisant les chances des femmes et des personnes issues de groupes ethniques minoritaires.

L’étude est intéressante car ses résultats statistiques n’ont été possibles que grâce aux nouveaux outils d’apprentissage automatique développés au cours de la dernière décennie.

hangartner-et-al-discrimination-2020.jpg

Hangartner et ses collègues de l’ETH Zurich et de la London School of Economics ont utilisé de nouvelles techniques d’apprentissage automatique pour isoler les biais qui conduisent à la discrimination par les recruteurs lors de l’examen des candidatures en ligne. Hangartner et al.

Afin de contrôler les attributs autres que l’origine ethnique et le sexe, les chercheurs ont utilisé une méthode mise au point par Alexandre Belloni, de l’université de Duke, et ses collègues, qui détermine les attributs pertinents à mesurer sur la base des données, plutôt que de les spécifier au préalable. Le modèle statistique devient de plus en plus puissant dans ses mesures à mesure qu’il est exposé aux données, ce qui est l’essence même de l’apprentissage automatique.

Progrès dans les véhicules autonomes pilotés par l’IA

Un grand avantage que les défenseurs de l’IA industrielle aiment mettre en avant est la réduction des accidents grâce aux véhicules autonomes qui utilisent une forme de système avancé d’aide à la conduite, ou ADAS (Advanced driver-assistance systems). Il s’agit de divers niveaux de manœuvres automatiques, notamment l’accélération ou le freinage automatique d’un véhicule, ou le changement de voie.

On ne sait pas encore dans quelle mesure la sécurité est améliorée. Lors d’une conférence organisée l’année dernière par la Society of Automotive Engineers, des données ont été présentées sur 120 conducteurs ayant parcouru un total de 216 585 miles dans dix véhicules différents utilisant ce que la société défini comme le “niveau 2” de l’ADAS, dans lequel un humain doit continuer à observer la route pendant que l’ordinateur effectue les manœuvres automatisées.

Lors de la réunion, un représentant de l’Insurance Institute for Highway Safety, David Zuby, après avoir examiné les données relatives aux réclamations d’assurance, a déclaré que “les systèmes de niveau 2 dans les véhicules étudiés pourraient – l’accent est mis sur “pourraient” – être associés à une fréquence plus faible de réclamations d’accident contre la couverture d’assurance.”

Déterminer les aspects positifs de la conduite autonome est rendu plus compliqué par les tiraillements entre l’industrie et les régulateurs. M. Musk, de Tesla, a pris l’habitude de tweeter sur la sécurité des véhicules de son entreprise, remettant souvent en question les enquêtes officielles.

Récemment, alors que les enquêteurs se penchaient sur l’accident d’une berline Tesla Model S au Texas qui n’a pas réussi à négocier un virage, a percuté un arbre et s’est enflammée, tuant les deux personnes qui se trouvaient dans la voiture, M. Musk a tweeté ce que son entreprise avait trouvé dans les journaux de données avant que les enquêteurs n’aient eu la possibilité de les consulter, comme l’a rapporté Reuters.

La Tesla avec le pilote automatique enclenché a maintenant 10 fois moins de chance d’avoir un accident que la moyenne des véhicules https://t.co/6lGy52wVhC

TuSimple, une entreprise de technologie de camions autonomes, s’attache à faire en sorte que les camions ne conduisent que des itinéraires prédéfinis entre une origine et un terminal de destination. Dans son prospectus d’introduction en bourse, l’entreprise affirme que ces itinéraires prédéfinis réduiront le nombre de “cas limites”, c’est-à-dire d’événements inhabituels pouvant entraîner des problèmes de sécurité.

TuSimple construit un système ADAS de niveau 4, dans lequel le camion peut se déplacer sans qu’il y ait de conducteur humain dans la cabine.

L’IA pour faire progresser la découverte de médicaments

Un domaine de l’apprentissage automatique qui pourrait atteindre des résultats significatifs avant l’automatisation est celui de la découverte de médicaments. Une autre jeune société en cours d’introduction en bourse, Recursion Pharmaceuticals, a été la première à utiliser l’apprentissage automatique pour déduire les relations entre les composés médicamenteux et les cibles biologiques, ce qui, selon elle, peut élargir considérablement l’univers des combinaisons de composés et de cibles qui peuvent être recherchées.

La société a 37 programmes de médicaments dans son pipeline, dont 4 sont en phase d’essais cliniques de phase 2, qui est la deuxième des trois étapes, lorsque l’efficacité est déterminée contre une maladie.

recursion-ideal-pharma-pipeline.jpg

La start-up de Salt Lake City Recursion Pharmceuticals, qui est entrée en bourse au Nasdaq sous le symbole “RXRX”, affirme pouvoir utiliser l’apprentissage automatique pour créer un “pipeline pharmaceutique idéal”. Recursion Pharmaceuticals

Le travail d’entreprises telles que Recursion présente un double intérêt. Premièrement, l’IA peut trouver de nouveaux composés, des combinaisons chimiques auxquelles aucun scientifique de laboratoire n’aurait abouti, ou pas avec une aussi grande probabilité.

Deuxièmement, la vaste bibliothèque de milliers de composés et de milliers de médicaments déjà développés, et dans certains cas même testés et commercialisés, peut être réorientée vers de nouveaux cas d’utilisation si l’IA peut prédire comment ils se comporteront face à des maladies pour lesquelles ils n’ont jamais été indiqués auparavant.

Ce nouveau mécanisme de “reconversion des médicaments”, qui consiste à réutiliser ce qui a déjà été exploré et développé à grands frais, pourrait rendre économique la recherche de traitements pour les maladies orphelines, pour lesquelles le marché est généralement trop petit pour attirer les premiers investissements de l’industrie pharmaceutique.

Parmi les autres applications de l’IA dans le développement de médicaments, citons la garantie d’une plus grande couverture pour des sous-groupes de la population. Par exemple, l’année dernière, des scientifiques du MIT ont développé des modèles d’apprentissage automatique pour prédire dans quelle mesure les vaccins COVID-19 couvriraient les personnes d’ascendance génétique blanche, noire et asiatique. Cette étude a révélé qu'”en moyenne, les personnes d’ascendance noire ou asiatique pourraient présenter un risque légèrement accru d’inefficacité du vaccin” lorsqu’elles reçoivent les vaccins Moderna, Pfizer et AstraZeneca.

L’IA ne fait que commencer à lutter contre le changement climatique

Le changement climatique est un domaine dans lequel les chercheurs en IA mènent activement des recherches approfondies.

L’organisation Climate Change AI, un groupe de chercheurs bénévoles issus d’institutions du monde entier, a présenté en décembre 2019 52 articles explorant de nombreux aspects de la manière dont l’IA peut avoir un impact sur le changement climatique, notamment les prévisions météorologiques en temps réel, l’amélioration de l’efficacité énergétique des bâtiments et l’utilisation de l’apprentissage automatique pour concevoir de meilleurs matériaux pour les panneaux solaires.

cloud-predictions-cumulo-dec-2019.png

Une grande partie des travaux sur le climat menés dans les milieux de l’IA en sont au stade de la recherche fondamentale. Par exemple, un projet de GE et de l’Institut de technologie de Georgie, appelé “Cumulo”, peut ingérer des photos de nuages d’une résolution d’un kilomètre et, pixel par pixel, catégoriser le type de nuage. Les types de nuages présents dans le monde ont une incidence sur les modèles climatiques. Il est donc impossible de modéliser le climat avec une grande précision sans savoir quels types sont présents et dans quelle mesure. Zantedeschi et al.

À l’heure actuelle, une grande partie des travaux d’IA sur le climat jettent les bases de plusieurs années de recherche.

Quand les bonnes intentions en matière d’IA échouent

Un élément important de l’IA est qu’elle peut aller à l’encontre des meilleures pratiques qui ont déjà été établies dans un domaine d’activité donné.

La recherche de l’application de l’IA à la détection du COVID-19 en est un bon exemple. Au début de 2020, alors que les tests de détection du COVID-19 basés sur des kits PCR étaient en nombre insuffisant dans le monde, des scientifiques de l’IA en Chine et ailleurs ont travaillé avec des radiologues pour tenter d’appliquer l’apprentissage automatique à l’examen des radiographies et des radiographies pulmonaires. (Une radiographie pulmonaire ou une radiographie peut montrer des opacités, un signe révélateur de la maladie).

Mais les lacunes de l’IA par rapport aux meilleures pratiques établies dans le domaine de la recherche médicale et de la recherche statistique signifient que la plupart de ces efforts ont été vains, selon un article de recherche publié récemment dans la revue Nature Machine Intelligence et rédigé par Michael Roberts de l’université de Cambridge et ses collègues. De tous les nombreux programmes d’apprentissage automatique créés pour cette tâche, “aucun n’est actuellement prêt à être déployé en clinique”, ont constaté les auteurs, ce qui constitue une perte stupéfiante pour une technologie prometteuse.

Pour comprendre pourquoi, les scientifiques ont examiné deux mille articles publiés l’année dernière, pour finalement se limiter à une étude de soixante-deux articles répondant à divers critères de recherche. Ils ont constaté que “de nombreuses études sont entravées par des problèmes liés à la mauvaise qualité des données, à la mauvaise application de la méthodologie d’apprentissage automatique, à la mauvaise reproductibilité et aux biais dans la conception des études.”

Parmi les recommandations, les auteurs suggèrent de ne pas s’appuyer sur des “ensembles de données Frankenstein” bricolés à partir de dépôts publics, un avertissement qui fait écho aux préoccupations de Gebru et Mitchell et d’autres concernant les ensembles de données.

Les auteurs recommandent également une approche beaucoup plus robuste de la validation des programmes, en s’assurant par exemple que les données de formation pour l’apprentissage automatique ne se glissent pas dans l’ensemble de données de validation. Certaines bonnes pratiques de recherche reproductible n’ont pas été suivies. Par exemple, “le point de loin le plus courant menant à l’exclusion était le fait de ne pas énoncer les techniques de prétraitement des données de manière suffisamment détaillée.”

La plus grande menace est l’analphabétisme en matière d’IA

Le plus grand problème éthique est peut-être celui qui a été le moins traité par les universitaires et les entreprises : La plupart des gens n’ont aucune idée de ce qu’est réellement l’IA. Le grand public est ignorant de l’IA, si l’on peut dire.

Cette ignorance est en partie la conséquence d’une forme de journalisme, qui colporte les affirmations non vérifiées sur ce que l’IA peut faire. Mais l’ignorance des journalistes est aussi le reflet d’une ignorance sociétale plus large.

Les tentatives pour combler ce manque de connaissances se sont jusqu’à présent concentrées sur le démantèlement des mythes. L’année dernière, des universitaires de la fondation Mozilla dot org ont lancé une initiative visant à démystifier les absurdités de l’intelligence artificielle, appelée “mythes de l’IA”.

Des voix se sont aussi élevées pour réclamer un enseignement formel de l’IA dès le plus jeune âge, mais les gens ont besoin d’être alphabétisés sur ce point à tout âge, car la maturité intellectuelle s’accompagne de différents niveaux de compréhension.

Il existe des démonstrations pratiques qui peuvent réellement aider un adulte à visualiser les problèmes de biais algorithmique, par exemple. Une équipe de Google appelée People + AI Research a produit des démonstrations interactives qui permettent de comprendre comment les préjugés apparaissent dans la manière dont les photos sont sélectionnées en réponse à une requête.

De telles études peuvent commencer à apporter au public une compréhension plus tangible de la nature des algorithmes. Ce qui fait encore défaut, c’est la compréhension de la portée générale d’un ensemble de technologies qui transforment les données d’entrée en données de sortie.

L’année dernière, un projet du MIT, dirigé par le doctorant Ziv Epstein, a cherché à comprendre pourquoi le public a des idées terriblement fausses sur l’IA, en particulier les présomptions anthropomorphiques qui attribuent une conscience aux programmes d’apprentissage profond, alors qu’il n’existe en fait aucune conscience.

La suggestion d’Epstein est de donner à davantage de personnes une expérience pratique des outils d’apprentissage automatique. “La meilleure façon d’apprendre quelque chose est de le rendre vraiment tangible et tactile”, a déclaré Epstein à ZDNet. “Je pense que c’est la meilleure façon d’obtenir non seulement une compréhension intellectuelle mais aussi une compréhension intuitive du fonctionnement de ces technologies et de dissiper les illusions.”

Quel type de fonction objective la société veut-elle ?

Regarder ce qu’est une machine et comment elle fonctionne peut révéler les choses auxquelles il faut réfléchir plus profondément.

Yoshua Bengio, de l’institut MILA pour l’IA de Montréal, un pionnier de l’apprentissage profond, a décrit les programmes d’apprentissage profond comme étant composés de trois éléments : une architecture, c’est-à-dire la manière dont les neurones artificiels sont combinés ; une règle d’apprentissage, c’est-à-dire la manière dont les poids d’un réseau neuronal sont corrigés pour améliorer les performances ; et une fonction objective. Il y a les données, que l’on pourrait considérer comme un quatrième élément, si vous voulez.

Une grande partie du travail actuel se concentre sur les données, et l’échelle des architectures a été examinée, comme dans l’article de Parrot, mais la fonction objective pourrait être la dernière frontière de l’éthique.

La fonction objective, également connue sous le nom de fonction de perte, est la chose que l’on essaie d’optimiser. Elle peut être considérée en termes purement techniques comme une mesure mathématique. Souvent, cependant, la fonction objective est conçue pour refléter des priorités qui doivent elles-mêmes être étudiées.

La mathématicienne Cathy O’Neil a qualifié de nombreuses approches statistiques de l’optimisation des choses d'”armes de destruction mathématique”, titre de son livre de 2016 sur la façon dont les algorithmes sont mal utilisés dans la société.

Le problème central est celui de l’exclusion, explique O’Neil. Les algorithmes peuvent forcer une fonction objective si étroite qu’elle donne la priorité à une chose à l’exclusion de toute autre. “Au lieu de rechercher la vérité, le score en vient à l’incarner”, écrit O’Neil.

facial-attractiveness-predictor.jpg

Un réseau neuronal convolutif dont la fonction objective est de produire un score de la “beauté” d’une photographie donnée d’un visage. Xu et al.

Il me vient à l’esprit l’exemple des GAN dont la fonction de perte consiste à créer la fausse photo “la plus attrayante” d’une personne. Pourquoi, pourrait-on se demander, des outils sont-ils consacrés à la création du plus attrayant ?

Un exemple classique de fonction objective mal placée est l’utilisation de l’apprentissage automatique pour la détection des émotions. Les programmes sont censés être capables de classer l’état émotionnel d’une personne sur la base d’une reconnaissance d’image qui identifie les expressions faciales et a été entraînée à les associer à des étiquettes d’émotion telles que la peur et la colère.

Mais la psychologue Lisa Feldman Barrett a critiqué la science qui sous-tend un tel système. Les systèmes de reconnaissance des émotions ne sont pas formés pour détecter les émotions, qui sont des systèmes de signes complexes et nuancés, mais plutôt pour regrouper divers mouvements musculaires dans des catégories prédéterminées étiquetées comme telle ou telle émotion.

Le réseau neuronal ne fait que recréer la catégorisation réductrice plutôt grossière et quelque peu suspecte sur laquelle il était basé.

La fonction objective est donc une chose qui est le produit de diverses notions, concepts, formulations, attitudes, etc. Il peut s’agir des priorités individuelles des chercheurs ou des priorités d’une entreprise. La fonction objective doit être examinée et remise en question. Les recherches de Gebru et Mitchell et d’autres chercheurs s’opposent à ces fonctions objectives, alors même que l’industrialisation de la technologie, par le biais d’entreprises telles que Clearview, multiplie rapidement le nombre de fonctions objectives qui sont instituées dans la pratique.

Lors de la réunion de l’IA sur le changement climatique en décembre 2019, on a demandé à Bengio du MILA comment l’IA en tant que discipline peut inciter à travailler sur le changement climatique. “Changez votre fonction objective”, a répondu Bengio. “Le genre de projets dont nous parlons dans cet atelier peut potentiellement avoir beaucoup plus d’impact qu’une amélioration incrémentale de plus dans les GAN, ou autre”, a-t-il déclaré.

russell-new-objective-for-ai.jpg

Stuart Russell, chercheur à l’université de Stanford, affirme que les humains doivent commencer à réfléchir dès maintenant à la manière dont ils vont demander à la puissante IA de demain de suivre des objectifs “compatibles avec les humains”. Stuart Russell

Certains disent que le potentiel de l’AGI un jour signifie que la société doit mettre au clair sa fonction objective dès maintenant. Stuart Russell, professeur d’intelligence artificielle à l’université de Californie à Berkeley, a fait remarquer que “si nous construisons des machines qui prennent des décisions mieux que nous, nous ferions mieux de nous assurer qu’elles prennent des décisions dans notre intérêt”.

Pour ce faire, les humains doivent construire des machines qui sont intelligentes non pas tant pour remplir un objectif arbitraire, mais plutôt l’objectif de l’humanité. “Ce que nous voulons, ce sont des machines qui nous sont bénéfiques, lorsque leurs actions satisfont nos préférences.”

L’IA nécessite de revisiter le contrat social

La confrontation sur l’éthique de l’IA se déroule clairement dans un contexte plus large de confrontation sur les priorités de la société dans de nombreux domaines du travail, de la technologie, de la culture et des pratiques industrielles.

zuboff-age-of-surveillance-capitalism.jpg

“Le monde numérique envahit et redéfinit tout ce qui nous est familier avant même que nous ayons eu le temps de réfléchir et de décider”, écrit Shoshana Zuboff dans The Age of Surveillance Capitalism. Shoshana Zuboff

Ce sont des questions qui ont été soulevées à de nombreuses reprises dans le passé en ce qui concerne les machines et les personnes. Shoshana Zuboff, auteur de livres tels que In the Age of the Smart Machine, et The Age of Surveillance Capitalism, a formulé la principale question éthique comme suit : “Le futur numérique peut-il être notre maison ?”

Certains technologues ont été confrontés à des pratiques qui n’ont rien à voir avec l’IA mais qui ne sont pas à la hauteur de ce qu’ils jugent juste ou équitable. Tim Bray, un éminent ingénieur qui a participé à la création du langage de programmation Java, a quitté Amazon l’année dernière après cinq ans de service, pour protester contre la façon dont l’entreprise traitait les activistes parmi ses employés. Bray, dans un essai expliquant son départ, a fait valoir que le licenciement des employés qui se plaignent est symptomatique du capitalisme moderne.

“Et en fin de compte, le gros problème n’est pas les spécificités de la réponse au COVID-19”, écrit Bray. “C’est qu’Amazon traite les humains dans les entrepôts comme des unités. Seulement, ce n’est pas seulement Amazon, c’est la façon dont le capitalisme du 21ème siècle est fait.”

Les réflexions de Bray suggèrent que l’éthique de l’IA ne peut être séparée d’un examen approfondi de l’éthique sociétale. Toute l’érudition sur les ensembles de données, les algorithmes, les préjugés et le reste souligne le fait que la fonction objective de l’IA prend forme non pas sur un terrain neutre, mais dans un contexte sociétal. Réfléchissant à des décennies d’érudition par la cohorte entièrement masculine blanche des premiers chercheurs en IA, Pamela McCorduck, une historienne de l’IA, a déclaré à ZDNet en 2019 que l’IA crée déjà un nouveau monde avec un ensemble de priorités incroyablement étroit. “Quelqu’un a dit, j’ai oublié qui, le début du XXIe siècle a créé un tout nouveau domaine qui reflète si parfaitement la société médiéviste européenne”, a-t-elle déclaré. “sans femme ou personne de couleur”.

En conséquence, le défi éthique engendré va exiger un réexamen total des priorités des sociétés, a soutenu Mme McCorduck. “Si je me place dans une perspective à très long terme, je pense que nous allons devoir réécrire le contrat social pour mettre davantage l’accent sur la primauté des êtres humains et de leurs intérêts. Au cours des quarante dernières années ou plus, la valeur d’une personne a été décrite en termes de valeur nette, c’est-à-dire exactement combien d’argent vous avez ou d’actifs”. Un état de fait qui “semble assez affreux”, a-t-elle déclaré. “Il existe d’autres façons de mesurer la valeur humaine”.

Source : “ZDNet.com”

Leave a Reply