3.6/5

Vous souhaitez comprendre le comportement de Google sur votre site web ? Au sein de la stratégie de marketing digital d’une entreprise, l’analyse de logs joue un rôle prépondérant. Dans le SEO, elle représente l’opportunité de comprendre en détails les performances de votre site web et la manière dont les robots de Google vont le parcourir et l’analyser.

En effet, si les Googlebots et autres Bingbots peinent à crawler votre site, cela peut entraîner d’indexation, et donc de positionnement.

Mais quelles en sont les composantes ? Comment se déroule une analyse de logs ? Quels sont les outils pour l’exécuter, et comment exploiter les datas obtenues ? Uplix vous présente dans cet article une introduction pour mieux vous figurer les tenants et aboutissants d’une analyse de logs.

Les logs d’un site internet, c’est quoi, concrètement ?

« Log » est un mot anglais qui signifie “registre”, ou “journal”. En effet, tous les sites internet conservent une trace de toutes les pages qui ont été visitées par un internaute, et a fortiori par les robots des moteurs de recherche. Ils les conservent dans un gigantesque fichier texte.

En d’autres termes, il s’agit d’un historique détaillé de toutes les fois qu’une page d’un serveur a été ouverte après en avoir reçu la requête, et des interactions ayant eu lieu dessus.

Autrement dit, une nouvelle ligne s’inscrit sur le fichier “log” chaque fois qu’un bot ou un internaute lance une requête vers les ressources du site.

Analyse de logs : un vrai atout pour vos audits SEO !

On accède à un paquet de données donnant un aperçu assez précis des performances du site, notamment en termes de trafic, évidemment. Puisqu’il s’agit, en somme, de la boîte noire de votre domaine, ces datas ont l’avantage d’être fiables à 100% ! Parmi ces données, nous allons trouver :

  • l’horodatage, c’est-à-dire les informations chronologiques de la requête (date et heure) ;
  • le type de demande ;
  • les adresses IP des utilisateurs, leur système d’exploitation et le navigateur utilisé ;
  • l’user-agent et les mot-clés requis dans le cas des moteurs de recherche ;
  • les URLs des pages consultées et leur nombre ;
  • les détails de l’événement (poids du fichier envoyé, temps de réponse, code HTTP (200, 301, 404, 500), etc.) ;
  • le referrer (URL source) en cas de visite liée à un suivi de backlinks.

Grâce à l’analyse de ces données contenues dans les fichiers de log serveur, un webmaster va pouvoir :

  • vérifier la sécurité du site (notamment la conformité RGPD) et détecter d’éventuelles fraudes ;
  • identifier des anomalies techniques (erreurs de code http, temps de chargement trop long, contenus dupliqués, liens brisés, problèmes de redirection, etc.) ;
  • comprendre la façon dont votre budget crawl est dépensé (et identifier les zones de gaspillage) ;
  • analyser la façon dont les internautes naviguent sur le site ;
  • trouver les points de friction sur le parcours utilisateur.

L’enjeu va être de croiser ces informations avec des indicateurs-clés de référencement naturel afin de sélectionner et de prioriser les tâches à accomplir.

Les outils d’analyse de logs

Le fichier log est énorme et sa forme brute rend sa consultation difficile, voire impossible, pour une analyse manuelle. C’est pourquoi de nombreuses entreprises ont développé des outils capables d’opérer un tri parmi les données brutes et d’en extraire au plus vite des enseignements intelligibles.

Uplix vous donne ci-dessous quelques exemples de ces outils d’analyse de logs avec un maximum d’indicateurs/KPI :

Logentries

L’outil développé par Rapid7 (entreprise spécialisée en sécurité informatique) représente une solution rapide et efficace d’analyse de fichiers log. Logentries permet d’analyser n’importe quel format de données avec une centralisation instantanée, et ce rapidement, le tout en présentant les résultats clairement pour l’utilisateur.

Loggly

Outil développé par SolarWinds, Loggly offre une analyse de log unifiée permettant d’avoir une multitude de sources, des langages de programmation aux logs système Windows.

OnCrawl

L’analyste log d’Oncrawl offre une analyse de logs en temps réel permettant un monitoring du trafic organique. Cet outil offre également des garanties de sécurité conformes au RGPD.

“L’analyseur de logs d’Oncrawl traite des centaines de millions de logs par jour pour fournir des informations indiquant comment, quand et où les robots des moteurs de recherche et les visiteurs interagissent avec votre site.” Oncrawl

Oncrawl a d’ailleurs développé une intégration de son outil d’analyse de logs, de manière à faciliter l’analyse pour les utilisateurs de Splunk.

Screaming Frog SEO

Screaming Frog est sans aucun doute l’un des outils d’analyse de logs les plus connus sur le marché. En plus de l’analyse de logs, l’outil de Screaming Frog SEO propose également des audits SEO ainsi que de la recherche de mots-clés.

Déroulé d’une analyse de log

Maintenant que nous avons établi les termes clés et les outils d’analyse de log, il convient d’en comprendre le déroulé. Avant tout, précisons que le processus est relativement long, et sied mieux à de gros sites comportant plus de 1000 pages, ou bien à des e-boutiques dont les URLs changent souvent. Ensuite, on retrouve trois étapes clés dans chaque analyse de logs…

Extraction des données

La première étape de toute analyse de logs est naturellement l’extraction des données dans un emplacement centralisé. Pour qu’une analyse efficace s’ensuive, vous conviendrez d’une terminologie standardisée pour tous les formats, schémas et types d’évènements (ou “hits”).

Un des points majeurs est d’établir le ratio entre les pages crawlées et les pages actives (c’est-à-dire qui ont reçu au moins une visite d’internaute). En extrayant le fichier log, nous aurons accès à toutes les requêtes présentes sur un serveur web. En fonction de l’outil choisi (parmi ceux présentés ci-dessus ou d’autres), nous pourrons d’ores et déjà avoir un aperçu de l’état et de la performance d’un site web.

Analyse des données

Vient ensuite l’analyse des données, qui permet grâce au fichier de logs d’établir un diagnostic de la performance d’un site web en fonction de certains indicateurs. Parmi ces indicateurs, on peut notamment retrouver :

  • la fréquence de crawl des robots Google ;
  • les erreurs SEO techniques ;
  • les contenus non-pertinents (duplicate content, erreurs 404, de pages piratées, contenus obsolètes ou pages zombies) ;
  • la pertinence d5u maillage interne (pages orphelines, structure incohérente, etc.) ;
  • les pages d’un site web non explorées ;
  • les échecs d’accessibilité sur le site ;
  • la proportion de crawl mobile et de crawl desktop ;

Correctifs

Une fois l’analyse des données effectuée, vous pourrez engager les démarches nécessaires pour corriger les défauts de votre site web : pages orphelines, codes de réponse, liens internes et externes, latences, etc.

Retrouvez quels sont les meilleurs outils en SEO dans notre article complet sur la question.

En résumé, les analyses de logs, c’est…

Une technique d’audit avancée qui existe déjà depuis longtemps et que l’on maîtrise de mieux en mieux. C’est aussi un des rares atouts fiables pour améliorer votre SEO pour des moteurs de recherche qui ne cessent d’évoluer.

Les compétences requises, néanmoins, sont au niveau d’un professionnel d’agence, capable de manier des outils de crawl et d’en faire un reporting intelligibles avec des KPIs et des recommandations de référencement hiérarchisées par ordre de priorité !

Uplix, l’agence conciliant SEO et UX !

Vous souhaitez améliorer votre SEO pour atteindre la première page dans les search results de Google ?

Uplix est une agence spécialisée dans le SXO, conciliant référencement naturel et expérience utilisateur.

Consultez le site d’Uplix pour plus d’informations !

FAQ
Quand doit-on réaliser une analyse de logs ?
Une technique d’audit avancée qui existe déjà depuis longtemps et que l’on maîtrise de mieux en mieux. C’est aussi un des rares atouts fiables pour améliorer votre SEO pour des moteurs de recherche qui ne cessent d’évoluer.  Les compétences requises, néanmoins, sont au niveau d’un professionnel d’agence, capable de manier des outils de crawl et d’en faire un reporting intelligibles avec des KPIs et des recommandations de référencement hiérarchisées par ordre de priorité !
Où conserver les données de log ?