Accessibilité : Facebook améliore son IA de description des photos

Accessibilité : Facebook améliore son IA de description des photos

Image : Facebook.

Facebook a annoncé de nouvelles améliorations pour sa technologie d’intelligence artificielle (IA) utilisée pour générer des descriptions des photos publiées sur le réseau social pour les utilisateurs malvoyants.

Cette technologie, appelée texte alternatif automatique (AAT), a été introduite pour la première fois par Facebook en 2016 pour améliorer l’expérience des utilisateurs malvoyants. Jusqu’alors, les utilisateurs malvoyants qui consultaient leur flux d’informations Facebook et tombaient sur une image n’entendaient que le mot “photo” et le nom de la personne qui la partageait.

Grâce à l’AAT, ils entendent une description comme « l’image peut contenir : trois personnes souriantes en plein air ».

publicité

L’IA reconnaît maintenant plus de 1 200 concepts

Facebook explique qu’avec la dernière version de l’AAT, le nombre de concepts reconnus par l’IA est élargi. Elle peut dorénavant mieux détecter et identifier sur une photo, et fournir des descriptions plus détaillées pour inclure des activités, des points de repère, des types de nourriture et des types d’animaux. Par exemple : « un selfie de deux personnes, en plein air, devant la Tour de Pise » au lieu d’une « photo de deux personnes ».

Le réseau social précise que l’augmentation du nombre de concepts que la technologie peut reconnaître – qui est passé de 100 à plus de 1 200 – a été rendue possible par un entraînement hebdomadaire du modèle à l’aide d’échantillons qui, selon lui, sont « à la fois plus précis et plus inclusifs sur le plan culturel et démographique ».

Facebook ajoute qu’afin de fournir plus d’informations sur la localisation et le nombre, elle a formé son détecteur d’objets en deux étapes en utilisant une plateforme open source développée par Facebook AI Research. « Nous avons formé les modèles à prédire les emplacements et les champs sémantiques des objets dans une image. Les techniques d’entraînement à l’utilisation de plusieurs étiquettes et ensembles de données ont permis de rendre notre modèle plus fiable, avec plus de possibilités d’étiquetage », explique la société.

Google et Amazon améliorent aussi l’expérience des utilisateurs malvoyants

Des efforts similaires ont été faits dans le passé par d’autres entreprises technologiques pour améliorer l’expérience des utilisateurs malvoyants.

L’année dernière, Google a publié son clavier braille TalkBack pour aider les utilisateurs à taper directement sur leurs appareils Android sans avoir besoin de connecter un clavier braille physique. Ce lancement est intervenu après que le géant du web a lancé son application Lookout, qui utilise l’IA pour aider les utilisateurs à recevoir une information vocale lorsqu’ils pointent des objets avec leur téléphone.

Avant cela, Amazon avait introduit une fonction “Show and Tell” au Echo Show pour qu’il puisse reconnaître les objets domestiques.

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *