Google révolutionne la recherche avec son IA MUM

Google a tenu le mercredi 29 septembre son second événement annuel « Search On ». L’occasion pour la firme de Mountain View de montrer ses dernières avancées en matière d’intelligence artificielle appliquée à la recherche d’information et ses bénéfices pour les utilisatrices et les utilisateurs.

L’accent  a été mis sur MUM (pour « Multitask Unified Model » ou « modèle unifié multitâche) qui avait été présenté pour la 1ère fois lors de la conférence I/O de Google dédiée aux développeurs du 18 mai 2021.

La MUM de toutes les batailles

Cette nouvelle technologie d’intelligence artificielle se présente comme étant 1 000 fois plus puissante que BERT (« Bidirectional Encoder Representations from Transformers » ou « Représentations d’encodeur bidirectionnel des transformateurs »). Rappelons que ce modèle de langage appliqué en France depuis 2019 en France par Google est déjà très puissant puisqu’il permet, entre autres, au moteur de recherche de comprendre les requêtes complexes en traitant l’intention de recherche.

C’est également l’objet de MUM. Pour bien comprendre le contexte et les défis qui se posent à Google, il faut notamment savoir que :

MUM a la faculté de mieux comprendre le langage humain grâce à sa faculté de conceptualisation mais également de génération. Cela signifie qu’il peut apporter une réponse comparable à celle d’un expert sur un domaine précis.

Il est également capable de lire des informations se trouvant dans des textes, bien sûr mais aussi des images et bientôt dans de l’audio et de la vidéo. Une nécessité à l’heure du succès du format Tiktok peut-être bientôt disponible dans les résultats de recherche de Google .

Concrètement, quels seront les impacts de MUM sur votre quotidien ?

Des réponses précises, riches et visuelles à des requêtes complexes

Lors de la conférence des développeurs du 18 mai dernier, Google donnait un avant-goût des possibilités de MUM.

Imaginons que vous vous rendez prochainement au Mont Fuji. Vous comptez prendre une paire de chaussures mais vous ne savez pas si elles sont adaptées pour randonner là-bas.

Pas de problème.

Il suffit de prendre en photo vos chaussures et… de poser la question à Google. Celui-ci vous dira si vous êtes bien équipés et vous redirigera éventuellement vers un blog spécialisé.

Lors de la conférence du mercredi 29 septembre 2021, Google a montré comment l’image et le texte pouvaient se combiner pour effectuer des recherches complexes auxquelles le moteur apportait des réponses simples.

Par exemple, un de vos amis porte une chemise affichant un motif difficile à décrire que vous appréciez. Qui plus est, vous souhaitez le même motif, mais sur une paire de chaussette. Pour ce faire, il convient d’utiliser Google Lens et de prendre en photo la chemise puis de demander à Google que vous souhaitez une paire de chaussette avec un motif similaire. Certes, il aurait été possible de décrire ledit motif dans la requête mais le résultat n’aurait pas été aussi précis. La reconnaissance visuelle opérée par MUM permet cela.

Le traitement d'une requête complexe par Google MUM via Google Lens
Le traitement d’une requête complexe par Google MUM via Google Lens

Encore plus impressionnant : grâce à une fonctionnalité « point-and-ask » (« pointer et demander »), vous pouvez pointer avec votre téléphone une pièce cassée d’un objet comme par exemple le dérailleur d’un vélo, et demander à Google comment le réparer. Le « moteur de réponse » vous affiche directement le moment d’une vidéo qui traite de votre problème. Fini donc les longues heures passées à écumer les catalogues de pièces détachées et à regarder des tutoriels.

Google MUM résout concrètement vos problèmes
Google MUM résout concrètement vos problèmes

Peut-être moins spectaculaire mais tout aussi utile, Google sera bientôt en capacité de vous présenter les sujets en rapport avec votre requête qui sont consultés en priorité par les internautes. Appelé « Things to know » (« choses à savoir »), cette fonctionnalité sera disponible dans quelques mois.

La nouvelle fonctionnalité "choses à savoir" de Google
La nouvelle fonctionnalité « choses à savoir » de Google

Dans le même ordre d’idées, Google promet des résultats de recherche plus visuels avec plus d’option pour élargir ou affiner votre requête.

Enfin, Google a montré les performances de MUM en matière de vidéo. Si le moteur de recherche est déjà capable d’identifier les moments clés d’une vidéo, il va bientôt pouvoir identifier les sujets relatifs à une vidéo. Plus précisément, il affichera des sujets connexes qui ne sont pas explicitement mentionnés dans le contenu, sur la base de sa compréhension avancée des informations contenues dans la vidéo.

Par exemple, admettons une vidéo sur les manchots macaroni, Google parvient à comprendre le sujet de ce contenu alors même que ce dernier ne mentionne pas les termes. Cette fonctionnalité devrait vite voir le jour puisque Google annonce une disponibilité dans les semaines à venir.

Laisser un commentaire