Mis à jour le 16/11/2024
Un moteur de recherche en ligne est un programme informatique qui récolte des adresses de sites internet (URL) en très grand nombre afin de les analyser, de les trier et de les proposer gratuitement sous forme de classement aux internautes qui effectuent une recherche en lien avec leur contenu.
Côté utilisateur, on trouve une interface composée au minimum d’une barre de recherche sur laquelle l’internaute tape les mots-clés correspondant à l’objet de sa requête. À peine la recherche lancée, l’interface affiche une page de résultats aussi appelée Search Engine Result Page (SERP).
Un moteur de recherche en ligne est donc à l’image d’une bibliothèque gigantesque dont le bibliothécaire serait capable de ranger ses rayons en temps réel selon le thème que vous lui demandez.
Quelle différence avec un Moteur de Recherche local ?
On associe par défaut, les termes “moteur de recherche” aux programmes de requêtes en ligne comme Google ou DuckDuckGo. Mais il n’est pas rare d’utiliser ce qu’on appelle un moteur de recherche local.
Son fonctionnement est très similaire, à la différence près que les ressources proposées (fichiers, images, vidéos, etc.) viennent d’un espace circonscrit à un appareil (recherche Windows sur PC), à un logiciel (fonction “rechercher” sur votre boîte mail) ou à un domaine (barre de recherche YouTube ou Wikipedia).
Moteurs de recherche en ligne spécialisés
Malgré l’hégémonie de Google, le marché s’est diversifié et des alternatives ont vu le jour pour un usage plus spécifique :
– protection de la vie privée avec chiffrement des sites, blocage des traqueurs et confidentialité des recherches (DuckDuckGo, Qwant) ;
– œuvres humanitaires et protection de l’environnement, quand les bénéfices générés par les moteurs de recherche vont à la plantation d’arbres, à la dépollution des océans ou aux associations contre les maladies graves (Lilo, Ecosia, OcanHero) ;
– requêtes sur les entreprises ou les publications scientifiques (Basedig, Isidore, CiteSeerx).
Quelle différence entre un Moteur de Recherche en ligne et un Navigateur ?
On a comparé un peu plus haut le moteur de recherche à une bibliothèque : le navigateur, c’est plutôt le vélo qui permet de vous y rendre (ou vos pieds, mais l’image est moins parlante). C’est sur le navigateur installé sur votre bureau que vous cliquez (Mozilla, Chrome, Safari, Explorer, etc.) pour accéder à la toile et vous rendre sur un site web.
À ce titre, si vous connaissez déjà l’URL, vous pouvez la taper ou la copier/coller sur la barre d’adresse du navigateur (https://www.nomdedomaine.com), sans passer par un moteur de recherche (après tout, un vélo ne sert pas qu’à aller dans les bibliothèques…). Mais revenons à nos moutons…
Comment fonctionne un moteur de recherche, concrètement ?
Vous savez à quoi vous en tenir en tant qu’utilisateur, mais si vous possédez votre propre site web, il convient de s’intéresser à l’envers du décor. Car vous avez tout intérêt à apparaître dans les pages de résultats le plus souvent possible !
Les moteurs de recherche ne couvrent qu’une partie d’internet
Les moteurs de recherche comme Google, Bing (Microsoft), Yandex (Russie) ou Baidu (Chine) ont indexé (autrement dit “stocké”) des milliers de milliards d’URL. Pourtant, ce n’est que la partie émergée de l’iceberg : environ 90% du contenu sur internet ferait partie du Deep Web, plus difficilement accessible (à ne pas confondre avec le Dark Web, zone d’activités illégales et dangereuses, qui en fait néanmoins partie).
À cet égard, un propriétaire de domaine est en mesure de vérifier la bonne indexation de ses pages, voire d’en désindexer certaines à l’aide d’un fichier robots.txt, d’une balise Meta ou un en-tête HTTP X-Robots-Tag (afin de les mettre en chantier par exemple).
Les bots utilisés par les moteurs de recherche
Le processus commence par l’activité des crawlers, les robots qui minent les liens URL dans l’immensité du web. Les scrappers prennent le relais en analysant leur contenu avant de les envoyer aux indexeurs qui vont stocker les adresses sélectionnées dans une gigantesque base de données.
Enfin, les algorithmes de type “filtres de recherche” interviennent au moment de suggérer des résultats. Ils se chargent de déclasser les pages les moins pertinentes selon des critères définis à l’avance. Ce sont surtout ces derniers qu’on cherche à connaître en SEO, en particulier ceux de Google.
Exemple de Google sur les algorithmes de classement
À chaque mise à jour de son moteur de recherche, Google finit par communiquer l’effet de ses nouveaux algorithmes.
Parmi les plus connus, on trouve :
– Panda (2011), qui traque les contenus de faible qualité ;
– Pingouin (2012), une mise à jour contre les techniques de black hat SEO comme le cloaking, le keyword stuffing ou le netlinking abusif ;
– Hummingbird (2013), qui aide Google à comprendre les requêtes formulées en langage naturel (questions, exposition d’un problème, etc.).
– Fred (2017), qui pénalise les sites inondés de publicités ;
On remarque qu’à chaque mise à jour, la tendance qui se dégage des moteurs de recherche est de renforcer leur exigence afin d’obliger les référenceurs à privilégier la qualité de leur serveur.
Pour finir…
Du point de vue de l’utilisateur, les moteurs de recherche représentent un raccourci vers de multiples besoins (connaissance, transaction, localisation, etc.).
Du point de vue des entreprises et autres diffuseurs de contenu, c’est un outil de visibilité intelligent et gratuit (excepté pour les annonceurs).
Néanmoins, pour apparaître (sans payer) sur les fameuses SERPs, encore faut-il proposer un contenu hautement pertinent et facilement identifiable par les bots… Voir notre définition SEO pour savoir de quoi il en retourne !