Google veut révolutionner la recherche sur internet grâce à cette nouvelle fonctionnalité

Google veut révolutionner la recherche sur internet grâce à cette nouvelle fonctionnalité

Google a commencé jeudi à déployer sur le marché américain une nouvelle fonctionnalité de recherche qui permettra aux utilisateurs de rechercher des informations en utilisant du texte et des images simultanément. Cette nouvelle fonctionnalité de recherche multiple s’inscrit dans le cadre de la stratégie mise en place par le géant américain pour utiliser l’IA afin de “créer des expériences d’information qui sont véritablement conversationnelles, multimodales et personnelles”, comme l’a récemment fait valoir Sundar Pichai, le PDG de Google.

La fonction de recherche multiple est intégrée à Google Lens, l’outil de reconnaissance d’images accessible via l’application Google. Pour l’instant, la fonctionnalité n’est disponible qu’en version bêta sur le marché américain auprès des utilisateurs voulant effectuer des recherches avec du texte en anglais. Elle est également destinée aux recherches d’achats.

“Chez Google, nous voulons trouver de nouvelles façons de vous aider à trouver les informations que vous recherchez, même si l’expression de vos besoins est délicate. C’est pourquoi nous vous présentons aujourd’hui une toute nouvelle façon de faire des recherches : en utilisant simultanément du texte et des images. Avec la recherche multiple dans Google Lens, vous pouvez aller au-delà du champ de recherche et poser des questions sur ce que vous voyez”, fait savoir le géant américain dans une note de blog.

publicité

Un nouveau mode de recherche

Par exemple, un utilisateur peut prendre une capture d’écran d’une robe orange et ajouter “vert” à sa requête pour essayer de trouver la même robe dans cette couleur. Cette fonctionnalité est également utile pour les recherches non commerciales ; un utilisateur pourrait prendre la photo d’un plant de romarin et ajouter la requête “instructions d’entretien” pour savoir comment prendre soin de sa nouvelle plante.

Dans son billet de blog publié jeudi, Google a indiqué étudier également les moyens d’améliorer cette fonctionnalité avec MUM (Multitask Unified Model), le dernier modèle d’IA de Google. Le géant technologique a récemment expliqué comment il utilise le MUM et d’autres modèles d’IA pour diffuser plus efficacement des informations sur l’assistance en cas de crise aux personnes qui recherchent de l’aide.

En février, la direction de Google avait indiqué vouloir investir massivement dans les modèles d’IA permettant la recherche multimodale.  “En 2022, nous resterons concentrés sur l’évolution de nos produits de connaissance et d’information, notamment Search, Maps et YouTube, afin qu’ils soient encore plus utiles”, faisait alors savoir Sundar Pichai. “Les investissements dans l’IA seront essentiels, et nous continuerons à apporter des améliorations aux interfaces conversationnelles comme l’Assistant.” Et d’indiquer : “De MUM à Pathways en passant par BERT et plus encore, ces investissements profonds dans l’IA nous aideront à être à la pointe de la qualité de recherche.”

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *