IA : Google et Nvidia survolent le marché du machine learning

IA : Google et Nvidia survolent le marché du machine learning

Les deux géants américains Google et Nvidia culminent au top des programmes de formation d’intelligence artificielle. C’est en tout cas l’avis de MLCommons, le consortium industriel qui supervise un test populaire des performances de machine learning, MLPerf.

Les derniers résultats de ce test révèlent que Google s’impose comme la société la plus performante en terme de délai pour former des réseaux neuronaux sépcialisés en reconnaissance d’images, détection d’objets, test des petites et des grandes images et pour le traitement du langage naturel BERT.

De son côté, Nvidia performe en ce qui concerne la segmentation d’images, la reconnaissance vocale, les systèmes de recommandation et de résolution de la tâche d’apprentissage par renforcement du jeu de Go sur le jeu de données “mini Go”. Les tests de référence déployés dans le cadre du MLPerf prennent en compte le nombre de minutes nécessaires pour régler les paramètres neuronaux jusqu’à ce que le programme informatique atteigne une précision minimale requise pour une tâche donnée – dans le cadre d’un processus couramment baptisé “formation” d’un réseau neuronal.

publicité

La loi de Moore dépassée ?

Google et Nvidia ne sont pas les seuls acteurs du machine learning et de l’intelligence artificielle à faire montre de francs progrès en la matière. Chez tous les fournisseurs, les temps de formation se sont considérablement améliorés grâce à une plus grande puissance et à des approches logicielles plus intelligentes.

Pour David Kanter, le directeur exécutif du MLCommons, les résultats de la dernière édition du MLPerf montrent que les performances de la formation ont augmenté plus vite que la loi de Moore, la règle traditionnelle qui veut que le doublement du nombre de transistors d’une puce tous les 18 à 24 mois accélère les performances des ordinateurs.

Les scores de la vénérable tâche ImageNet, dans laquelle un réseau neuronal est formé pour attribuer une étiquette de classification à des millions d’images, sont 9 à 10 fois plus rapides aujourd’hui que ce que de simples améliorations de la puce impliqueraient, relève à ce propos David Kanter. “Nous avons fait beaucoup mieux que la loi de Moore”, se réjouit ce dernier. “On s’attendrait à obtenir des performances environ trois fois et demie supérieures, en supposant que les transistors ont un rapport linéaire avec les performances ; en fait, nous obtenons 10 fois la loi de Moore.”

Source : ZDNet.com

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading