Tendance 2020 : IA, la question cruciale des données et du hardware

Tendance 2020 : IA, la question cruciale des données et du hardware

Ce que nous mettons aujourd’hui sous l’appellation “intelligence artificielle” est un terme générique qui désigne diverses techniques de reconnaissances de formes et de sons. Le machine learning et ses dérivés, comme le deep learning, se résument essentiellement à la reconnaissance de formes. Nous avons assisté à plusieurs percées dans les années 2010, mais les graines de la plupart des techniques et des algorithmes ont été plantées il y a de ça plusieurs décennies déjà.

Nous avons pu constater l’immense progression des performances des systèmes d’IA dans de nombreux domaines, passant d’une situation en-deçà des compétences humaines à un rattrapage, voire un dépassement de ces compétences. Comment est-ce possible ? La réponse est double et se résume ainsi : les données et le calcul.

Le phénomène de numérisation de presque toutes les activités humaines a conduit à une explosion des volumes de données générées. Les algorithmes ont maintenant beaucoup plus de données avec lesquelles travailler, et sont de fait, beaucoup plus performants. Des progrès ont aussi été réalisés en parallèle dans la reconnaissance d’images. Les ajustements des réseaux neuronaux ont permis d’accroître la précision des algorithmes. ImageNet en est d’ailleurs un bon exemple.

publicité

Un fossé entre les sachants et les non sachants

L’intelligence artificielle progresse dans de nouveaux domaines à un rythme effréné. Rien qu’en 2019, nous avons vu de grands progrès dans des domaines tels que le traitement automatique du langage naturel pour n’en citer qu’un.

Des améliorations en matière de qualité des résultats et de vitesse d’exécution ont été recensées chaque mois de l’année dernière. La quantité des ressources qui y sont consacrées est stupéfiante, et la recherche progresse en un temps record. Devrions-nous nous préparer au nouveau monde de l’IA ? Peut-être pas si vite en fait.

Le problème avec l’IA est que le fossé ne cesse de se creuser entre ceux qui possèdent les connaissances et ceux qui en sont démunis. Pas nécessairement à cause des ressources et de l’expertise des grands acteurs. Ce fossé s’auto-alimente, et le simple fait de concevoir et produire des produits à partir de données signifie que ces produits catalysent encore plus de données au fur et à mesure qu’ils fonctionnent.

Le cercle vertueux de l’utilisation des données

En suivant ce raisonnement : si l’usage accru de données assure le déploiement d’une meilleure IA, alors des produits plus fiables sont conçus, ce qui engendre encore plus de données, et ainsi de suite. Facebook en est un exemple très parlant, mais ce n’est pas le seul. Lorsque The Economist ou d’autres appellent à une plus forte régulation des données, cela devrait nous mettre la puce à l’oreille.

Toutefois, les données ne sont qu’une partie de l’équation. L’autre partie concerne le hardware. Sans les énormes progrès réalisés dans le domaine du hardware au cours de la décennie précédente, l’intelligence artificielle n’existerait pas. L’accès à la puissance de calcul nécessaire pour traiter les énormes quantités de données requises pour traiter le machine learning était autrefois un privilège réservé à une minorité.

Le type de matériel informatique auquel les grandes entreprises technologiques ont accès reste toujours inaccessible au commun des mortels, mais un marché parallèle aux capacités quasi équivalentes s’est démocratisé. La combinaison du cloud, caractérisé par sa capacité d’accès illimité à la puissance de traitement, avec un matériel informatique plus performant, a permis à plus d’entreprises qu’avant d’accéder aux puces d’accélération d’IA, à condition d’y mettre le prix.

La montée en puissance de NVIDIA

Dans les années 2010, NVIDIA a gagné le prix de l’innovation en matière de matériel hardware conçu pour l’IA. Ce fabricant, surtout connue pour ses processeurs graphiques (GPU) – généralement utilisés par les gamers -, s’est réinventé en champion de l’IA. Il s’avère que l’architecture des GPU s’adapte très bien aux charges de travail de l’IA.

Puisque Intel dominait le marché des processeurs traditionnels (CPU), et que les autres fabricants de GPU n’arrivaient pas à suivre, alors NVIDIA s’est hissé au rang de leader de hardware pour l’IA. Tout cela n’étant pas gravé dans le marbre, le monde du hardware connaît des innovations rapides.

Alors que NVIDIA s’est doté de tout un écosystème logiciel dédié à l’IA, des disruptions viennent attaquer de front le marché des puces. Fin 2019, voici qu’Intel se montre offensif en rachetant Habana Labs. Habana Labs fait partie des start-ups actives sur le marché des puces d’IA, portées sur la recherche de nouveaux designs et qui s’adaptent de A à Z aux charges de travail spécifiques requises pour traiter l’IA.

La course aux puces ne fait que commencer

Même si beaucoup ne connaissent pas (encore) Habana Labs, ces puces sont déjà utilisées par des fournisseurs de cloud et des constructeurs de véhicules autonomes. GraphCore, qui est devenu la première licorne à puce IA fin 2018, a récemment annoncé que ses puces étaient dorénavant utilisées dans le cloud Azure de Microsoft. Loin d’être terminée, cette course aux puces ne fait que commencer.

Cet article fait partie de notre dossier sur les 5 technologies de la future décennie. Pour aller plus loin, lire aussi :

Leave a Reply

Your email address will not be published. Required fields are marked *