Le deep learning, ou apprentissage profond, n’est qu’une composante de l’intelligence artificielle et du machine learning. Inspiré du réseau de neurones humains, cette technologie s’applique déjà au quotidien dans les logiciels, les réseaux sociaux et bientôt dans les voitures autonomes. À cet effet, les cours de deep learning ou encore de machine learning ou d’intelligence artificielle sont de plus en plus prisés. La plateforme d’apprentissage de cours en ligne d’Udemy propose en effet une série de formations complètes en français sur ces sujets rencontrant beaucoup de succès auprès de l’audience française.

Le deep learning est un type de machine learning, ou apprentissage automatique, qui utilise des outils statistiques pour découvrir des corrélations et établir des modèles dans des données. La particularité du deep learning, aussi appelé apprentissage profond, est que la précision augmente plus la quantité d’informations à traiter augmente.

1. Des réseaux neuronaux artificiels

Le deep learning s’appuie sur des réseaux neuronaux artificiels, qui s’inspirent des réseaux de neurones dans les cerveaux des animaux. Il s’agit d’un outil fondamental dans l’informatique moderne, notamment pour l’intelligence artificielle, mais dont le premier modèle computationnel date de 1943. Chaque neurone artificiel est constitué d’un algorithme différent. Ces neurones sont ensuite connectés entre eux à la manière des synapses du cerveau, pour créer un réseau cohérent et partager les résultats des données traitées. Le terme « deep learning » correspond à un genre d’apprentissage automatique (ou « machine learning ») utilisant de très grands réseaux neuronaux artificiels pour modéliser le fonctionnent du cerveau humain. L’émergence de l’apprentissage profond a été rendu possible notamment grâce à la multiplication de la puissance informatique, capable de gérer des réseaux neuronaux complexes.

2. Des résultats incomparables avec les données d’origine analogique

Les méthodes d’apprentissage automatique plus traditionnelles fonctionnent bien avec des données numériques. Par exemple, un site marchand qui analyse vos achats et suggère des articles que d’autres clients ont également achetés. Pour des données plus complexes, notamment ceux d’origine analogique comme les photos ou la voix, avec des méthodes classiques les chercheurs doivent indiquer sur quels éléments se baser. Par exemple, pour la reconnaissance faciale, les chercheurs utilisent des algorithmes spécifiques pour analyser des éléments du visage comme les yeux ou la bouche. Avec le deep learning, les chercheurs ne fournissent aucune indication de ce genre. Le réseau neuronal artificiel reçoit par exemple des photos avec pour seule information « chat » ou « pas de chat ». Il devra ensuite analyser les images pour déterminer seul quels éléments constituent un chat, et comparer aux images sans chats pour vérifier lui-même ses résultats. Plus le réseau reçoit d’images d’entraînement, plus il affine ses algorithmes. Cela lui permet d’atteindre des performances d’une précision sans égal par rapport aux autres méthodes d’analyse de données complexes.

3. Le deep learning souffre de biais humains

L’une des limites du deep learning se situe au niveau des données fournies pour son apprentissage. Plus le système reçoit de données, plus sa précision augmente. Malheureusement la quantité ne suffit pas, la qualité et la diversité sont également des paramètres importants. Google l’a découvert à ses dépens en 2015, lorsqu’un utilisateur afro-américain s’est plaint sur Twitter que Google Photos avait identifié un cliché de lui et une amie en tant que gorilles… L’erreur provient très certainement d’un manque de diversité dans les photos de visage utilisées pour l’apprentissage. Google a corrigé l’erreur… en retirant les termes gorille, singe et chimpanzé du service d’identification automatique. Les biais ne se limitent pas uniquement aux minorités, mais apparaissent également au niveau du genre, de la classe sociale, de la politique… Il peut apparaître dans l’identification des images, mais également du choix des mots dans la traduction automatique, ou encore dans la compréhension des accents pour la reconnaissance vocale. En 2016, Microsoft avait lancé un « chatbot » sur Twitter, qui apprenait en échangeant avec les autres utilisateurs. Il aura fallu moins d’une journée pour que la twittosphère apprenne au chatbot à publier des messages racistes et pro-Hitler… Une fois mis en lumière, ce genre de biais s’est révélé omniprésent à un tel point qu’IBM a lancé des recherches pour analyser et tenter d’éliminer le biais dans les données d’entraînement.

4. Le deep learning, source de création

L’application première du deep learning est d’analyser et catégoriser de très grandes quantités d’informations, avec au départ des algorithmes créés par l’homme. C’est ce que l’on apprend dans les formations proposées par Udemy avec la création des algorithmes en Python par des experts en Machine Learning & Data science. Cet apprentissage peut également être utilisé ensuite pour produire de nouvelles données. En comparant une grande quantité d’images en couleur et en noir et blanc, l’intelligence artificielle apprend à coloriser les clichés sans intervention humaine. Certains sites Web proposent ce service gratuitement, ce qui permet notamment au service de continuer d’apprendre et d’améliorer les résultats. Le deep learning sert également pour la traduction, et peut même ajouter du son à un film muet. L’intelligence artificielle de Google, baptisée DeepMind, est même capable de créer des images de toutes pièces.

5. Vous utilisez déjà le deep learning

Les intelligences artificielles et le deep learning s’intègrent de plus en plus dans la vie de tous les jours. Ils permettent de nouveaux usages dans des domaines spécialisés comme le diagnostic médical (avec notamment la détection du cancer), les voitures autonomes, les banques (avec la détection des activités suspectes), l’exploration spatiale… Mais il est également très probable que vous en ayez déjà utilisé sans le savoir.

Facebook est désormais capable d’identifier automatiquement vos amis sur les photos publiées, grâce à son service DeepFace. Google utilise l’apprentissage profond dans son service Photos, mais également dans son service de traduction automatique. Il sert également à améliorer les résultats des services OCR, autrement dit la reconnaissance des caractères, par exemple en scannant un texte imprimé. Cette technologie s’immisce également au sein de la maison, avec les assistants vocaux comme OK Google, Siri, Alexa.

Ce sujet est réalisé en partenariat avec les équipes d’Udemy.

Intéressé par ce que vous venez de lire ?

Abonnez-vous à la lettre d’information La quotidienne : nos dernières actualités du jour.

Cela vous intéressera aussi

À voir aussi : 

Let a comment