Tendances tech 2022 : L’IA devrait encore faire parler d’elle

Tendances tech 2022 : L'IA devrait encore faire parler d'elle

Alors que l’année 2021 vient de s’achever, l’heure est venue pour la rédaction de ZDNet de passer en revue les technologies qui marqueront l’année 2022 de leur empreinte. Après avoir évoqué les tendances liées à l’open source, au cloud et à la blockchain, concentrons-nous désormais sur ce que le monde des bases de données, de la gestion des données et de l’intelligence artificielle (IA) a à nous amener en cette nouvelle année.

publicité

Les nombreux visages de l’IA

En principe, il est plus aisé d’aborder l’IA de manière holistique. De prendre en compte les aspects positifs et négatifs de cette technologie, en allant du brillant au banal, et du matériel au logiciel. Ces dernières années, le matériel a été un sujet récurrent dans l’histoire plus large de l’IA.

Ces deux dernières années, nous avons suivi de près la liste croissante des fournisseurs de “puces d’IA”, c’est-à-dire des entreprises qui ont entrepris de développer de nouvelles architectures matérielles de A à Z, destinées spécifiquement aux charges de travail de l’IA. Toutes cherchent à obtenir une part d’un gâteau apparemment en constante augmentation : à mesure que l’IA se développe, les charges de travail ne cessent de croître, et les desservir aussi rapidement et économiquement que possible est un objectif évident.

Nvidia continue de dominer ce marché sur lequel il était bien avant que les charges de travail de l’IA ne commencent à exploser. L’entreprise a eu la perspicacité et les réflexes de capitaliser sur cette situation en construisant un écosystème matériel et logiciel. Sa décision de 2020 d’intégrer Arm dans cet écosystème fait encore l’objet d’un examen réglementaire.

Une industrie très prisée

Parmi les nombreuses annonces faites lors de l’événement GTC de Nvidia en novembre 2021, celles qui apportent quelque chose de nouveau au niveau du matériel ont trait à ce qui, selon nous, caractérise la priorité de l’IA en 2021 : l’inférence et la périphérie. Nvidia a présenté un certain nombre d’améliorations pour le serveur d’inférence Triton. Elle a également présenté le GPU Nvidia A2 Tensor Core, un accélérateur de faible puissance et de faible encombrement pour l’inférence de l’IA à la périphérie qui, selon Nvidia, propose des performances d’inférence jusqu’à 20 fois supérieures à celles des CPU.

Et qu’en est-il des nouveaux venus ? SambaNova prétend être aujourd’hui « la start-up d’IA la mieux financée au monde », après avoir obtenu un énorme financement de 676 millions de dollars en série D, dépassant ainsi les 5 milliards de dollars d’évaluation. La philosophie de SambaNova est de proposer « l’IA en tant que service », qui inclut désormais les modèles de langage GPT. 2021 semble surtout avoir été l’année de sa mise sur le marché pour l’entreprise.

Xilinx, pour sa part, prétend atteindre une accélération spectaculaire des réseaux neuronaux par rapport aux GPU de Nvidia. Cerebras prétend « dominer absolument » le calcul haut de gamme. L’entreprise a également obtenu un financement important. Graphcore est en concurrence avec Nvidia (et Google) dans les résultats de MLPerf. Tenstorrent a engagé le légendaire concepteur de puces Keller.

Blaize a de son côté levé 71 millions de dollars pour doter les applications industrielles de l’IA de pointe. Flex Logix a obtenu 55 millions de dollars en capital-risque, ce qui porte son total à 82 millions de dollars. Enfin, et ce n’est pas le moins important, nous avons un nouveau cheval dans la course avec NeuReality, des moyens de mélanger et d’assortir le déploiement dans ONNX et TVM, et la promesse d’utiliser l’IA pour concevoir des puces IA.

Des développements à venir dans tous les domaines

Selon le rapport “State of the Edge” de la Fondation Linux, les entreprises de soins de santé numériques, de fabrication et de vente au détail sont particulièrement susceptibles de développer leur utilisation de l’edge computing d’ici 2028. Il n’est donc pas étonnant que le matériel, les cadres et les applications d’IA destinés à l’informatique périphérique prolifèrent également.

TinyML, qui manie l’art et la science de la production de modèles d’apprentissage automatique suffisamment économes pour fonctionner à la périphérie, connaît une croissance rapide et construit un écosystème. Edge Impulse, une start-up qui souhaite mettre l’apprentissage automatique à la périphérie à la portée de tous, vient d’annoncer un financement de série B de 34 millions de dollars. Les applications périphériques sont à venir, et l’IA et son matériel en seront une partie importante.

2021 a vu l’explosion de ce qu’on appelle MLOps – qui prétend amener le machine learning à la production. En 2022, l’accent sera pourtant mis non plus sur les nouveaux modèles brillants de MLOps, mais sur des aspects peut-être plus banals, mais pratiques, tels que la qualité des données et la gestion du pipeline de données, ce qui va permettre aux MLOps de continuer à se développer.

L’année des modèles de langages ?

L’autre élément susceptible de se développer, tant en termes de taille que de nombre, est celui des grands modèles de langage (LLM). Certains pensent que les LLM peuvent internaliser les formes de base du langage, qu’il s’agisse de biologie, de chimie ou de langage humain, et on est sur le point de voir se développer des applications inhabituelles des LLM. D’autres ne sont pas de cet avis. Quoi qu’il en soit, les LLM prolifèrent.

Outre OpenAI et son GPT3, DeepMind et son dernier LLM RETRO, Google et son éventail toujours plus large de grands modèles de langages – Nvidia s’est associé à Microsoft pour le modèle Megatron. Mais ce n’est pas tout. Récemment, EleutherAI, un collectif de chercheurs indépendants en IA, a mis en libre accès son modèle GPT-j, qui comprend six milliards de paramètres. Si vous vous intéressez à d’autres langues que l’anglais, il dispose désormais d’un grand modèle de langues européennes – anglais, allemand, français, espagnol et italien – créé par Aleph Alpha.

Au-delà des grands modèles de langages, DeepMind et Google ont fait allusion à des architectures révolutionnaires pour les modèles d’IA, avec Perceiver et Pathways, respectivement. Pathways est critiqué pour son caractère plutôt vague. Cependant, on peut spéculer sur le fait qu’il pourrait être basé sur Perceiver. Mais pour rester dans le domaine de la technologie du futur, ce serait une omission de ne pas mentionner le raisonnement algorithmique neuronal de DeepMind, une direction de recherche promettant de marier les algorithmes informatiques classiques avec l’apprentissage profond.

Aucune visite de l’année 2021 dans l’IA, aussi condensée soit-elle, ne serait complète sans une mention honorifique des travaux menés sur l’éthique de l’IA. L’éthique de l’IA est restée au centre des préoccupations en 2021. Des régulateurs aux praticiens, chacun y est allé de ses propres recherches pour réécrire l’éthique de l’IA à sa manière. Et n’oublions pas l’essor actuel des applications de l’IA dans le domaine des soins de santé, un domaine dans lequel l’éthique devrait être une priorité absolue, avec ou sans IA.

Source : ZDNet.com

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading