L’analyse croisée SEO est une des grandes étapes d’analyse qui intervient souvent au moment de l’audit SEO d’un site pour comprendre sa structure et ses performances. Elle peut être utilisée tout au long d’un accompagnement (campagne SEO) pour mesurer la performance des actions mises en place.
L’objectif est de veiller à avoir une structure de site qui soit efficace en SEO. C’est à dire, de se rapprocher d’une structure où toutes les pages ont un rôle à jouer en SEO et sont actives. Pour cela, avoir une complémentarité parfaite entre l’intention de recherche dans Google et le mot clé cible de la page est très important. Cela permet de présenter un contenu de qualité qui est pertinent pour les internautes.
Par exemple, les marketplaces se trouvent souvent confrontées à un nombre conséquent de fiches produits dupliquées sans contenu, ou avec une URL par variation de produit. Tout cela peut être contre productif en référencement naturel.
Nous vous conseillons de réaliser une analyse croisée, quel que soit votre secteur, afin de comprendre concrètement comment votre site performe en SEO et de vous rapprocher d’une structure de site optimale.
Qu’est ce qu’une analyse croisée ?
L’analyse croisée permet de mettre en relation la structure de votre site, sa performance en trafic SEO et ce que voit Google sur votre site.
Elle permet également de définir si certains silos ne sont pas performants. Un silo est un ensemble de pages qui traitent d’une même thématique et qui sont reliées à un même univers et un même mot clé.
Enfin, grâce à l’analyse croisée, nous pouvons souvent nous rendre compte que Google passe trop de temps sur des pages peu performantes de votre site, et moins de temps sur d’autres, qui génèreraient un trafic SEO plus important. Cela permet de mettre le doigt sur un gain potentiel de trafic et de visibilité dans les résultats de recherches.
De cette manière, des actions peuvent être définies puis mises en place dans le but d’optimiser le SEO de votre site et de générer d’avantage de trafic.
Pour bien comprendre la méthode, voici tout d’abord quelques définitions :
- Une page crawlable : une page crawlable est une page qui peut être parcourue par les robots des moteurs de recherche (par exemple Google). Ces robots découvrent les pages de votre site, l’une après l’autre, en suivant les liens internes qu’ils trouvent sur votre site.
- Une page indexée : une page indexée est une page présente dans les bases de données d’un moteur de recherche. Indexer une page permet de la rendre visible dans les résultats de recherche (sur Google par exemple). Une page qui n’est pas indexée ne sera pas accessible par les internautes depuis ces résultats.
- Une page active : une page active est une page qui a généré au moins une session. Au contraire, une page inactive n’en aura générées aucune.
- Les logs : les logs sont des fichiers informatiques qui enregistrent les passages des robots des moteurs de recherche quand ils visitent votre site internet. On peut l’imaginer comme le journal intime du site internet et analyser les visites des bots (erreurs rencontrées, pages les plus vues…).
Les 5 bonnes raisons de réaliser une analyse croisée
1. Avoir une bonne vision de la structure de votre site
L’analyse croisée permet de connaître précisément quelles sont les pages que les bots des moteurs de recherche et les internautes peuvent voir. Vous serez souvent surpris de voir certaines pages qui remontent dans Google sans aucun intérêt pour les internautes (aucune recherche pouvant mener vers elles), ou certaines qui sont beaucoup (trop) vues par les bots, alors qu’elles n’ont que peu d’intérêt dans votre stratégie SEO. Connaître ces éléments vous permettra de piloter votre structure de site et de savoir quelles pages sont à prioriser sur le site ou à supprimer de l’index des moteurs. Tout cela pour optimiser les visites des bots et des internautes, et donc permettre de gagner en pertinence et en performance.
2. Identifier les segments les plus performants en SEO de votre site
L’analyse croisée nous apporte des informations concernant la ventilation du trafic SEO par type de page. Nous pouvons ainsi mettre en avant les segments qui génèrent le plus et le moins de trafic SEO. Ainsi, le consultant SEO peut apporter des conclusions sur l’efficacité de la structure de votre site et mettre en place des actions concrètes, en supprimant certains silos de l’index des moteurs ou en regroupant certains contenus similaires pour avoir une architecture de site mieux organisée et plus pertinente. Les moteurs attachent de l’importance à avoir une organisation de site qui regroupe les pages en fonction de leur sujet ou de leur thématique.
3. Identifier des pages orphelines
Une page orpheline est une page de votre site à laquelle on ne peut pas accéder en utilisant les liens internes proposés sur votre site. C’est à dire qu’aucun lien sur le site ne pointe vers cette page. Cela dit, les robots des moteurs de recherche peuvent la voir autrement. Par exemple, via un backlink présent sur un autre site web (par exemple un forum), via l’url présente dans votre sitemap, ou via un partage sur les réseaux sociaux (un tweet peut suffire à indexer une page !). Il faut gérer ces cas, et décider si ces pages doivent être interdites d’accès aux robots des moteurs ou si au contraire elles doivent être mises en avant sur le site pour capter plus de puissance et faire en sorte qu’elles remontent encore mieux dans les pages de résultats.
4. Identifier les pages inactives
Une page inactive est une page qui n’a généré aucune session SEO au cours de la période étudiée. L’objectif en SEO est de faire la chasse aux pages inactives et de se rapprocher des 100% de pages actives ! Une page peut être inactive pour plusieurs raisons. Le plus souvent, c’est parce qu’elle ne se positionne sur aucune requête recherchée dans Google et dans les autres moteurs. Cela peut être aussi parce qu’il n’y a pas assez de contenu, qu’il est pauvre sémantiquement ou qu’il ne répond pas à l’intention de recherche des internautes. Il faut donc identifier ces pages et définir une stratégie en fonction des cas possibles : supprimer la page, l’optimiser, fusionner certains contenus, les interdire…
5. Optimiser le budget de crawl
Il est important de prendre en compte le fait que les robots visitent un nombre de page limité sur votre site, et ce, en un temps limité. Cette limite est ce qu’on appelle : le budget de crawl. Avec l’analyse croisée SEO, nous mettons en avant les pages de votre site qui consomment la plus grande partie du budget de crawl. L’objectif pour nous est de guider les robots des moteurs de recherche vers les pages de votre site les plus intéressantes et les plus stratégiques pour développer l’activité du site. Cela vous permettra de gagner des positions dans les résultats de recherches et d’augmenter votre trafic organique.
Comment faire une analyse croisée ?
Notre expérience sur de nombreux sites nous à permis de développer et d’imaginer une méthode efficace d’analyse croisée.
Nous confrontons trois éléments principaux :
- La structure de votre site,
- Le trafic généré sur votre site,
- Ce que Google voit de votre site.
Pour réaliser une analyse croisée, nos experts SEO utilisent alors trois types de données :
- Les données du crawl, qui correspondent à la structure de votre site,
- Le trafic SEO, qui permet d’identifier les groupes de pages qui performent ou non,
- Les logs, qui indiquent les pages de votre site que Google visite, et à quelle fréquence.
Les principales étapes pour faire l’analyse :
- Pour commencer l’analyse, nous récupérons dans un premier temps la liste des URLs de votre site grâce au crawl.
- Ensuite, nous analysons les logs des URLs indexables de votre site. Cette étape permet de mettre en évidence les URLs vues par les robots des moteurs de recherche.
- Nous allons cherche le trafic SEO que les pages génèrent.
- Enfin, nous construisons une stratégie SEO en prenant en compte nos constats sur l'analyse croisée.
Les étapes
L’analyse de crawl
L’analyse de crawl consiste à voir comment votre site est vu par les robots des moteurs de recherche. Cette analyse permet surtout de contrôler la structure de votre site et ses erreurs.
Nous récupérons plusieurs informations importantes de ce crawl, comme par exemple :
- Les pages crawlables : afin d’avoir la liste des URLs de votre site pour commencer l’analyse.
- Les pages indexées : afin de les confronter aux logs correspondants et de mettre en évidence les pages, pourtant indexées, qui ne seraient pas visitées par les internautes ou les robots.
- Les liens internes des pages : pour voir si le nombre de liens internes est la cause du problème relevé, dans le cas où la page est active. En effet, une page présentant peu de liens internes sera peu mise en valeur par les moteurs de recherche.
- La profondeur des pages : afin d’identifier également si cela peut être la cause du problème que nous avons relevé. En effet, une page dont la profondeur est élevée n’aura pas la même importance aux yeux des moteurs de recherche qu’une page accessible en moins de clics sur le site.
- Les status code des pages : afin de comprendre si le statut de la page peut être la cause de la problématique relevée. Un status code correspond aux réponses transmises par un serveur quand un internaute souhaite accéder à une page. Ce statut nous indique si la recherche a fonctionné ou si une erreur à été détectée. Il existe différents status code. Les plus courants sont : le code de statut 200 (pas d’erreur), le code de statut 301 (redirection définitive de la page), le code statut 302 (redirection temporaire de la page),le code de statut 404 (erreur car la page n’est plus accessible) et le code de statut 500 (erreur interne sur le serveur).
L’analyse de crawl nous permet aussi de visualiser la structure d'un site web. Sur cet exemple, on remarque que les pages produits représentent la moitié de la structure du site. Le blog, lui, correspond à un quart du site. Quant aux pages listing, elles représentent 21% de la structure.
Les données Analytics
Croiser les données de crawl et d’audience permet principalement de :
- Mettre en évidence des pages orphelines,
- Identifier les pages actives et inactives,
- Visualiser le poids de chaque silo dans le trafic SEO.
Toujours sur le même exemple, nous comparons les deux graphiques pour opposer la ventilation de la structure et celle du trafic SEO généré par chaque segment de votre site.
Nous pouvons donc dire par exemple que les fiches produits représentent plus de la moitié de la structure du site alors qu’elles ne génèrent même pas un quart du trafic SEO du site. Le blog représente 25,6% de la structure et génère à lui seul 44,2% du trafic SEO.
L’analyse de logs
L’analyse des logs des serveurs permet de comprendre le comportement des robots des moteurs de recherche sur votre site.
Grâce à cette analyse, nous pouvons mettre en évidence :
- Les pages les plus vues par les robots des moteurs de recherche,
- Les pages les moins vues par les robots des moteurs de recherche,
- Les pages visitées par les robots, alors qu’elles ne le devraient pas.
Grâce au graphique représentant la répartition par segment du nombre de visites des robots des moteurs de recherche, nous pouvons en conclure que : les robots utilisent presque 40% de leur temps sur le site pour parcourir les fiches produits. C’est élevé par rapport au trafic qu’elles génèrent (22% du trafic SEO du site). Les robots pourraient au contraire passer un peu plus de temps à parcourir les pages du blog, qui génèrent presque un quart du trafic SEO du site.
Finalité d’une l’analyse croisée
Voici des exemples d’actions qui peuvent être mises en place suite à l’analyse croisée :
- Mailler des pages orphelines intéressantes en SEO,
- Revoir le maillage interne de certaines pages : l’optimiser ou le désoptimiser,
- Créer des nouvelles pages sur certains segments définis,
- Désindexer ou supprimer certaines pages,
- Définir les pages à optimiser (contenu, balisage sémantique, tags SEO …