Éthique, industrialisation et sécurité, IA green…Les tendances 2022 de l’intelligence artificielle

Éthique, industrialisation et sécurité, IA green…Les tendances 2022 de l’intelligence artificielle

Face à l’accélération du changement climatique et la prise de conscience de la contribution de l’intelligence artificielle aux émissions carbone, deux concepts se distinguent : Green AI et AI for green.

Le premier promeut une intelligence artificielle moins gourmande en énergie, en ressources, et qui a pour but de réduire son propre impact carbone. Pour cela, les créateurs peuvent utiliser des modèles moins complexes, limiter le nombre d’entraînements des modèles ou encore faire un compromis entre performance technique et consommation énergétique.

Le second concept, l’”AI for Green”, qualifie les intelligences artificielles développées pour une utilisation à finalité durable et au service de l’environnement : optimisation des trajets en voiture pour économiser du carburant, prédiction des phénomènes climatiques extrêmes et anticipation de leurs impacts, etc. Ces applications de l’intelligence artificielle permettent donc de faciliter la transition durable, et ce, dans une majorité des secteurs économiques. 

Ces deux concepts répondent au final à une même nécessité, qui est celle – urgente – de participer aux efforts de réduction des émissions carbone. En 2022, il est indispensable pour les créateurs d’algorithmes d’intelligence artificielle de les intégrer : en entamant en amont une réflexion sur la finalité et l’utilité de l’algorithme, puis en favorisant l’IA frugale pour le développement et la mise en production.

publicité

Passer du POC réussi à l’industrialisation

Si on constate une forte montée en maturité de la part des entreprises sur la création des algorithmes de Machine Learning, l’accroissement du nombre d’algorithmes en production reste lui sans effet notoire : le ratio POC/algorithmes industrialisés reste faible, voire nul pour certaines entreprises. Pour faciliter l’industrialisation des algorithmes, les grands acteurs du numérique ont peu à peu adapté les techniques DevOps pour les appliquer au Machine Learning et donner le MLOps.

La mise en production d’un modèle de Machine Learning implique différentes étapes à prendre en compte dès la conception du modèle pour son intégration dans l’infrastructure et les processus existants. Parmi les éléments nécessaires au bon fonctionnement du modèle en production, on retrouve l’acquisition et le nettoyage des données, l’automatisation de l’entraînement, le suivi des expérimentations, le déploiement ou encore le monitoring du drift des modèles.

Déjà identifié l’année dernière, le MLOps continue de représenter une opportunité à saisir pour les entreprises : les challenges techniques et la rareté des compétences en data-engineering et DevOps sont à prendre en compte pour mettre en production un modèle de Machine Learning. L’augmentation de la demande d’IA en production chez les clients est notoire, quel que soit le secteur, et cette tendance devrait s’accélérer en 2022.

Prévenir et protéger les solutions d’IA en production

L’accroissement du nombre de solutions d’IA mises en production et donc accessibles aux utilisateurs entraîne une augmentation des attaques et des détournements de ces outils. Ces attaques peuvent tromper un modèle en modifiant l’entrée : par exemple un classifieur de texte binaire considère la phrase “manger un enfant” comme “mauvais” alors que “manger un enfant car j’avais très faim” peut être considéré comme “bon”. À ajouter à cela, la possibilité que l’algorithme ne soit pas protégé : il peut alors dévoiler les données avec lesquelles il a été entraîné, générant de lourdes conséquences lorsqu’il s’agit de données personnelles. 

Pour faire face à ces menaces, trois mesures sont recommandées : (1) réaliser de la veille technologique pour identifier les nouvelles attaques et être sensibilisé au sujet, (2) lors de la construction d’un produit d’IA, intégrer dès la phase de cadrage l’identification des potentielles menaces et des contraintes de sécurité (du modèle, et l’infrastructure qui héberge la solution, le type d’accès, …) et (3) durant le développement du modèle, utiliser des techniques de protection des données d’entraînement comme la differential privacy ou le knowledge distillation. Enfin, une autre méthode préventive consiste à appliquer systématiquement des tests de robustesse pour identifier les vulnérabilités de la solution avant sa mise en production. 

Avec tous ces paramètres en tête, il est clair que l’on gagne fortement à anticiper la sécurité et la protection des algorithmes d’intelligence artificielle avant leur mise en production : cela évite les dérives et la fuite de données confidentielles.

Privilégier une intelligence artificielle transparente pour gagner la confiance des utilisateurs

En 2022, l’intelligence artificielle de confiance passe d’un ensemble de valeurs et de concepts théoriques à un levier opérationnel que les créateurs d’IA doivent intégrer dans la conception de leurs algorithmes. Une intelligence artificielle de confiance by design doit être pensée en intégrant tout au long du cycle de vie les sujets d’explicabilité des modèles, d’interprétabilité des décisions, mais aussi la détection et la gestion des biais ou encore la possibilité d’une intervention humaine (human in the loop). 

Pour relever ce défi de l’intégration opérationnelle de ces valeurs, il y a un véritable enjeu d’acculturation et de formation des équipes pour les entreprises, qui ont tout à y gagner alors que l’intelligence artificielle responsable devient un des piliers du numérique européen. 

Dans le passage de l’IA black box à l’IA transparente et explicable, tout le monde est gagnant. Elle est bien sûr nécessaire pour gagner et conserver la confiance des utilisateurs d’algorithmes, mais aussi pour protéger l’image des entreprises, éviter la mise sur le marché d’algorithmes déviants et enfin, pour anticiper les réglementations à venir. 

Sous l’impulsion d’une Union Européenne cheffe de rang avec son projet de régulation de l’IA, cette année, la conception et l’utilisation de solutions d’intelligence artificielle devraient naturellement s’orienter vers une IA responsable, dite « de confiance », et opérationnelle pour répondre à la demande des utilisateurs, comme aux réglementations à venir. 

Plus qu’une tendance, l’apparition de plusieurs référentiels (certification IA du LNE, label IA de confiance de Labelia…) laisse penser que cette IA deviendra la norme au niveau européen…et bientôt mondial ? Cette semaine, le collectif américain Business Roundtable, représentant 230 entreprises de tous secteurs, demandaient à l’administration Biden d’établir des règles en ce sens. Nul doute qu’en 2022, le nombre d’entreprises certifiées devraient donc augmenter.

Leave a Reply

Your email address will not be published. Required fields are marked *