L’analyse des logs pour le référencement, et la correction ultérieure des différents problèmes rencontrés dans les enregistrements, est une action technique indispensable en SEO. Elle aide à obtenir de meilleures positions dans les moteurs de recherche.
Il faut savoir que trop d’erreurs de réponse peuvent réduire l’exploration par Google de votre site Web (et même de votre position). Cela vous aide à vous assurer que les moteurs de recherche explorent tout le contenu, que vous voulez voir apparaître et classer dans les SERP (qu’il soit nouveau ou ancien).
Pour viser un référencement naturel optimum et surtout espérer atteindre une première position Google, il est indispensable de savoir ce que sont les logs et les analyser.
Que sont les logs ?
Un log (fichier journal) est un enregistrement de l’activité d’un système (serveur, système d’exploitation, applications…) qui est enregistré dans un fichier texte. Sur ce fichier vous pouvez voir les actions (demandes de page) qui ont été faites sur votre site Web.
Les serveurs, les systèmes d’exploitation, les périphériques réseau et les applications, génèrent automatiquement une entrée de logs chaque fois qu’ils exécutent une action ou un événement. En matière de référencement web et de marketing digital, ce type d’action fait référence à une page demandée par un bot ou une personne.
Qu’est-ce que l’analyse des fichiers journaux ?
L’analyse des logs est le processus d’analyse des fichiers journaux, afin d’en extraire des informations sur leurs données. Il est donc indispensable d’analyser ces fichiers afin de récupérer et de surtout solutionner les éventuels problèmes que vous rencontrez sur votre site Internet notamment. C’est principalement la partie SEO qui va nous intéresser ici.
L’analyse des logs est généralement utilisée pour solutionner ce type de problèmes :
- Dépannage du réseau – Découvrez et corrigez les erreurs système sur un réseau
- Service client – Déterminez ce qui s’est passé lorsque les clients ont un problème avec un produit technique
- Sécurité – Enquête sur les attaques de piratage et autres intrusions
- SEO technique – Analyse de la façon dont les moteurs de recherche explorent votre site Web
Les différents aspects SEO dans l’analyse des logs
Il faut savoir qu’il existe de très nombreux problèmes liés au référencement, qui sont importants à analyser et à résoudre. Ils sont mentionnés dans les logs et il faut donc bien les interpréter et les comprendre. Voici ci-dessous des erreurs reportées qui ont un impact sur votre référencement Google.
Les erreurs SEO rencontrées, sont à corriger au plus vite pour éviter de perdre des positions et de bloquer Google dans l’indexation de votre contenu.
Volume d’exploration du bot
Il est important de connaître le nombre de requêtes soumises par Baidu, Bingbot, GoogleBot, Yahoo, Yandex… etc. dans un certain laps de temps, car, par exemple, si vous voulez vous positionner en Russie, mais que Yandex ne suit pas notre site Web, vous auriez un sérieux problème.
Codes de réponse : Les erreurs 4XX et 5XX
Moz, qui est l’un des outils SEO référents, a une excellente introduction à la signification des différents codes de statut. Il est très utile d’avoir une configuration système qui vous alerte immédiatement des erreurs 4XX et 5XX, car elles sont très importantes.
Les redirections temporaires 301 et 302
Les redirections 302 ne reportent pas la popularité des backlinks de l’ancienne URL vers la nouvelle. Ils devraient presque toujours être remplacés par des redirections 301. Les logs vous indiquent ainsi lesquels vous avez, et le nombre de requêtes reçues par ces pages.
La limite de trace
Google attribue une limite d’exploration pour chaque site Web en fonction de nombreux facteurs. Si votre limite d’exploration est par exemple de 100 pages par jour (ou la quantité équivalente de données), vous devrez vous assurer que ces 100 pages correspondent à ce que vous voulez voir apparaître dans les SERPs.
Peu importe ce que vous saisissez dans les balises méta-robots ainsi que dans le fichier robots.txt. Vous pourriez encore perdre du budget d’exploration sur les pages de destination publicitaires, les scripts internes, etc. Les logs vous donneront ces informations.
Les URL en double lors de l’exploration
Les URL avec des paramètres supplémentaires (généralement utilisés pour baliser et mesurer les stratégies publicitaires) coûtent parfois votre limite d’exploration en explorant différentes URL avec le même contenu.
La priorité de suivi
Un moteur de recherche peut ignorer une page ou une section clé de votre site Web, c’est-à-dire ni l’explorer ni l’indexer. Les logs révèlent les URL/répertoires qui attirent plus ou moins l’attention de Google.
Si une partie de votre site Web n’est pas explorée souvent, bien qu’elle soit mise à jour assez fréquemment, vous devriez vérifier votre structure de liens internes (ou maillage interne) et vos priorités d’exploration dans votre fichier Sitemap.xml.
La date du dernier suivi
Avez-vous téléchargé quelque chose que vous souhaitez indexer rapidement ? Le log vous indiquera la date à laquelle Google l’a retrouvé.
Le budget d’exploration
Le budget d’exploration que le moteur de recherche alloue à votre site Web est un indicateur approximatif de la mesure dans laquelle il « aime » (ou peu) le site. Google ne veut pas perdre de son temps d’exploration qui lui est précieux, sur un site web qui n’est ni qualitatif ni pertinent pour les internautes.
En résumé
Les logs contiennent les seules données fiables à 100 % relatives au moteur de recherche qui explore votre site Web. Par conséquent, avec une bonne analyse des logs, vous faciliterez le travail de Googlebot (suivre adéquatement votre site Web), établissant les bases d’une bonne stratégie d’optimisation pour les moteurs de recherche.