Le machine learning à la périphérie : Tout un écosystème matériel et logiciel

Le machine learning à la périphérie : Tout un écosystème matériel et logiciel

Le edge computing est en plein essor. L’idée d’extraire l’informatique du centre de données et de la rapprocher le plus possible de l’endroit où les données sont générées suscite un vif intérêt.

Qu’il s’agisse de capteurs IoT autonomes, d’appareils de toutes sortes, de drones ou de véhicules autonomes, il y a un point commun. De plus en plus, les données générées à la périphérie sont utilisées pour des applications alimentées par des modèles d’apprentissage automatique.

 Le Tiny Machine Learning (ou TinyML) est un domaine en plein essor de technologies et d’applications de ML visant à permettre au machine learning de fonctionner à la périphérie. Il comprend du matériel, des algorithmes et des logiciels capables d’effectuer des analyses de données de capteurs sur l’appareil à une puissance extrêmement faible, permettant ainsi une variété de cas d’utilisation permanente.

Pour que le TinyML fonctionne, une confluence de matériel et de logiciels est nécessaire, créant un écosystème construit autour de la notion de frugalité des besoins énergétiques. Il s’agit d’une condition préalable aux applications à la périphérie.

publicité

Arm, Neuton et Alif Semiconductor, partenaires

Aujourd’hui, Arm, fournisseur mondial de propriété intellectuelle pour semi-conducteurs, connu pour son intérêt pour la création d’écosystèmes et pour les besoins énergétiques limités de ses processeurs, annonce un partenariat avec Neuton, fournisseur d’une plateforme TinyML automatisée. Au début du mois de septembre, Alif Semiconductors, un autre partenaire d’Arm qui construit des puces d’intelligence artificielle pour la périphérie, a lancé de nouvelles lignes de produits.

ZDNet s’est entretenu avec Henrik Flodell, directeur marketing senior chez Alif, Philip Lewer, directeur de l’écosystème et des relations avec les développeurs, Machine Learning chez Arm, et Blair Newman, directeur technique chez Neuton, tous experts chevronnés dans le domaine de l’embarqué. Nous avons discuté de leurs offres respectives, ainsi que de ce qu’il faut faire pour mettre en place un écosystème de machine learning à la périphérie.

Arm, construire un écosystème d’IA

Arm est un champion de l’écosystème, avec plus de 1 000 partenaires. Les puces Arm sont utilisées partout, des centres de données en cloud aux ordinateurs portables, en passant par les vêtements et les drones. Philip Lewer a décrit la plateforme d’IA d’Arm comme « un ensemble de technologies et de partenariats qui permettent à l’IA de se développer ».

Pour Arm, la base se situe au niveau du matériel, et sa plateforme d’IA comprend tout, des processeurs Arm Cortex aux GPU Mali, en passant par les NPU et microNPU Ethos. La famille Cortex-M est un choix très populaire, souvent inclus dans les microcontrôleurs ainsi que dans d’autres puces. La série de processeurs Ethos-N d’Arm se concentre spécifiquement sur l’inférence du machine learning pour les appareils à faible consommation.

Les familles de produits Ensemble et Crescendo récemment dévoilées par Alif utilisent également le Cortex-M d’Arm. Les puces Ensemble sont destinées aux produits de la maison intelligente, aux appareils, aux points de vente, à la robotique et à d’autres applications à la périphérie.

Alif a été fondée en 2019, et Henrik Flodell a noté que la motivation était de « développer une nouvelle plateforme à partir de zéro, basée sur la toute dernière technologie qui permet vraiment des fonctionnalités comme la connectivité sans fil omniprésente et le traitement en périphérie avec des capacités d’IA et de machine learning ».

L’accélération du machine learning et la sécurité multicouche sont les principales caractéristiques que partagent Ensemble et Crescendo. La famille Crescendo offre également des fonctions de connectivité et de positionnement, ce qui, selon Alif, la rend adaptée aux applications de villes intelligentes, d’infrastructures connectées, de suivi des actifs, de dispositifs de santé et de wearables.

En 2018, Neuton a fait sensation en annonçant un framework de réseau neuronal prétendant être bien plus efficace que tout autre framework et algorithme non neuronal disponible sur le marché. Newman a noté que bien que Bell Integrator, le vendeur derrière le framework Neuton, existe depuis un peu plus de 17 ans, c’est il y a environ six ans qu’ils ont concentré leur attention sur la construction de solutions SaaS zéro code.

Historiquement, poursuit Blair Newman, Bell Integrator a exploité tous les cadres de machine learning « traditionnels » disponibles. Cependant, la question de la rareté des ressources a toujours été difficile à gérer. C’est une chose de construire un modèle de ML, et une autre de le déployer en production, surtout à la périphérie.

Neuton, construire des modèles de machine learning sans code à partir de zéro

Blair Newman a souligné deux aspects de l’approche de Neuton qui vont à l’encontre des frameworks de machine learning établis. Premièrement, l’aspect “no-code”, qui permet à des non-data scientists de construire des modèles. Deuxièmement, l’architecture personnalisée que les modèles de machine learning de Neuton utilisent : « Dès que ces modèles sont produits, ils peuvent immédiatement, sans aucune interaction, être intégrés dans des microcontrôleurs. Nos clients sont vraiment en mesure de parcourir l’ensemble du cycle de vie du machine learning à la périphérie sans aucune compétence technique », a déclaré Blair Newman.

Neuton a été invité à rejoindre l’écosystème de partenaires d’Arm après avoir présenté son approche de la construction de modèles compacts et précis lors du TinyML EMEA Technical Forum 2021. L’objectif de l’écosystème de partenaires d’Arm est de réunir des entreprises qui offrent des capacités différentes, a déclaré Philip Lewer.

Alif et Neuton sont des exemples concrets, poursuit Philip Lewer. Alif utilise la conception Cortex d’Arm de manière innovante, mais la vraie question pour les utilisateurs est de savoir comment déployer des modèles de machine learning sur les puces d’Alif. « Il est vraiment important, surtout pour les développeurs qui ont une formation plus proche de la programmation conventionnelle, de combler ce fossé vers le monde du ML. Ensuite, il y a quelqu’un comme Neuton qui arrive et qui dit : « C’est là qu’est notre place. Si nous avons des clients satisfaits et des partenaires satisfaits, c’est ainsi que nous mesurons le succès ».

Selon Henrik Flodell, Arm était un partenaire naturel pour Alif, car l’entreprise possède une excellente propriété intellectuelle et se concentre sur la mise en place d’un écosystème : « Nous savons que les gens seront capables d’être productifs avec ces appareils dès qu’ils les auront en main », a-t-il soutenu.

Une attention particulière a été accordée aux caractéristiques de puissance de la gamme de produits d’Alif. Naturellement, a expliqué Henrik Flodell, les puces dotées de fonctions de connectivité intégrées, comme la gamme Crescendo, auront des besoins en énergie plus élevés que celles de la gamme Ensemble.

Tout se résume à la quantité d’énergie que vous consommez pour participer à un réseau, et c’est cet aspect qu’Alif s’est efforcé d’optimiser. À cet égard, a-t-il ajouté, les benchmarks d’Alif montrent que Crescendo est 2 à 3 fois plus économe que les puces ayant des caractéristiques similaires, ce qui signifie simplement que les applications pourront fonctionner plus longtemps.

Alif, construire des contrôleurs embarqués pour des environnements contraints

Pour les applications déployées à la périphérie, la consommation de la batterie est vraiment la clé, a conclu Blair Newman. L’approche de Neuton consiste à « construire des modèles à partir de la base, neurone par neurone. Vous n’avez à construire vos modèles qu’une seule fois et ils sont extrêmement compacts sans compromettre la précision ».

Neuton est relativement nouveau dans le jeu des partenariats, mais Blair Newman a identifié le partenariat avec Arm comme un partenariat stratégique pour l’objectif de Neuton de démocratiser le machine learning. Pour Philip Lewer et Arm, les partenariats sont un élément clé de leur stratégie, qu’ils vont continuer à développer. Même si Arm a de nombreux partenaires, ce n’est pas qu’une question de chiffres, a déclaré Philip Lewer : « Il s’agit vraiment de rendre ces partenariats efficaces, et cela signifie qu’il faut se pencher sur la question. Nous passons beaucoup de temps avec chaque partenaire pour essayer de comprendre où il veut en venir, afin de trouver un terrain d’entente ».

Lorsque nous parlons de machine learning à la périphérie, il est essentiel de pouvoir travailler dans un environnement où les ressources sont limitées, a noté Henrik Flodell. L’ADN de l’IA est lié aux centres de données, mais cela doit changer pour les applications réelles de l’IA à la périphérie : « Lorsque l’on veut réduire l’échelle et fonctionner dans quelque chose qui est configuré comme un microcontrôleur, parfois avec moins d’un mégaoctet de mémoire, cela devient un défi en soi. »

En outre, ajoute-t-il, « l’IA est, d’une certaine manière, très différente du développement traditionnel auquel sont soumis les concepteurs de systèmes embarqués. C’est encore plus le domaine des data scientists qui doivent comprendre comment ajuster les modèles pour produire les bons résultats. Le fait de pouvoir tirer parti des activités de partenariat d’Arm pour se connecter à des entreprises comme Neuton devrait permettre de combler ce fossé et de faire en sorte que l’expertise des spécialistes des données et celle des développeurs de systèmes embarqués se rejoignent, et que les modèles et la technologie s’adaptent à un système contraint. »

« C’est là que réside le véritable défi. Si nous parvenons à le surmonter, nous ouvrirons les vannes de l’adoption de cette technologie ».

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *