[Étude de cas] Réaliser un Audit de contenu pour un maximum de résultats en SEO

audit de contenu seo
audit de contenu seo 1

Salut la peuplade.

Dans cet article, je vous présente ma vision d’un audit de contenu orienté ROI et, cerise sur le gâteau, ma propre méthodologie (dans les grandes lignes).

Cela pourra vous aider à comparer vos process aux miens, et pourquoi pas échanger entre nous.

J’ai hâte d’avoir vos retours.

Qu’est-ce qu’un Audit de contenu SEO ?

Un audit de contenu se concentre à analyser les points les plus susceptibles d’avoir un impact majeur sur les performances SEO d’un site internet.

Globalement, cela se caractérise par l’audit des points suivants :

  • Pertinence et qualité des contenus du site
  • Profil de liens
  • Analyse concurrentielle

Je détaillerai chacun de ces points dans cet article.

Quels sont ses objectifs concrets ?

Lors de mes audits de contenu, je travaille sur 3 axes majeurs :

  1. Amélioration du contenu :
    1. Identifier les contenus à faible valeur, pour les améliorer ou les supprimer
    2. Identifier les contenus à mettre à jour 
    3. Déceler les pages qui ont le potentiel de se positionner en première page (ce sont elles qu’on va prioriser dans notre travail)
  2. Amélioration structurelle :
    1. Analyser la structure globale du site, pour s’assurer qu’elle est optimale pour les moteurs de recherche, mais également pour l’internaute
    2. Analyser son maillage interne afin de l’optimiser si possible
  3. Analyse concurrentielle :
    1. Comparatif des contenus du site à celui des concurrents présents en première page
    2. Comparatif du profil de liens avec celui des concurrents

Quelles sont les différences entre un audit de contenu et un audit technique ?

Car oui, ce sont deux audits bien différents.

L’audit de contenu se veut focaliser sur le contenu à destination de l’utilisateur : son texte, ses images, etc. C’est ce que nous souhaitons promouvoir sur la toile en somme.

L’audit technique quant à lui se focalise sur son moteur : les outils utilisés, les performances du serveur et du site ainsi que sa sécurité pour faire court. Ce n’est évidemment pas ce qui nous intéresse dans cet article, mais, croyez-moi, c’est très balèze comme audit.

Quand est-ce pertinent de réaliser un audit de contenu ?

La pertinence d’un audit de contenu diffère en fonction des sites et de leurs objectifs.

D’après moi, votre site doit répondre à ces critères si on souhaite qu’un audit de contenu apporte vraiment quelque chose :

  • S’il s’agit d’un site éditorial (blog, médias, MFA…) : au moins une trentaine de pages indexées et visant chacune un mot-clé sans résultats probants sur Google depuis 3 mois minimum
  • S’il s’agit d’un site à destination d’un référencement local : site terminé et sans résultats probants sur Google depuis 3 mois minimum.

D’une manière générale, je dirai qu’il est totalement inutile de réaliser un audit de contenu sur un site récent (moins de 3 mois).

Quels sont les outils utilisés ?

Pour réaliser mes audits de contenu, j’utilise les outils suivants :

  • Screaming Frog SEO Spider
  • Search Console
  • Google Analytics
  • Google PageSpeed Insights
  • Ahref et SEMrush

Quels sont les éléments analysés dans ma méthode d’audit de contenu et pourquoi ?

Afin de réaliser un audit de contenu complet orienté ROI, j’’analyse les points suivants :

  • Le nombre total de pages indexées
    • Afin d’identifier celles qui sont pertinentes ou non pour l’index de Google
    • S’il y a des pages non indexées, mais qui le devraient
  • Certaines métriques essentielles :
    • Backlinks de chaque URLs
    • Nombre de visiteurs issus des résultats de recherche
    • La vitesse de chargement des pages
    • Temps passé sur la page par les utilisateurs
    • Les transactions s’il s’agit d’un site e-commerce + taux de conversion
  • Éléments propres au contenu :
    • Balise Title
    • Balise H1
    • Balise métadescription
    • Duplicate content (duplication de contenu)
    • Nombre de mots (important pour l’analyse comparative concurrentielle)
    • Balise Canonical (on peut avoir de belles surprises des fois)
    • L’éventuel duplicate content

Tous ces éléments vont nous permettre de détecter les éventuelles faiblesses du site et de les comparer à la concurrence, pour voir si nous pouvons mieux faire.

Analyser la balise Canonical de chaque URL nous permettra de détecter si le site présente des anomalies qui pourraient expliquer un problème d’indexation.

Cette liste est non-exhaustive et, vous verrez, nous analyserons bien plus de points que ceux énumérés ici. Vous comprendrez également pourquoi nous devons absolument analyser ces points.

À noter

Cet article n’a pas vocation à former qui que ce soit à l’audit de contenu. Pour cette raison, ce n’est pas un tuto pas-à-pas expliquant comment arriver à tel ou tel résultat.

Commençons notre audit sans plus tarder.

Le site audité pour cette étude de cas

Il y a quelque temps sur Twitter, j’ai annoncé chercher un site de petite taille (moins de 200 pages indexées) afin de réaliser un audit de contenu. J’ai reçu de nombreuses propositions, mais celle que j’ai retenue est celle de Sébastien Bourru et de son site prendsensoin.fr.

Commençons notre audit de contenu sans plus tarder.

Search Console

La première chose que j’analyse lors d’un audit, c’est la search console associée au site en question.

Cet outil peut nous révéler un nombre de soucis plus ou moins importants à corriger. C’est la porte d’entrée par excellence de tout audit SEO.

Voici, dans les grandes lignes, les éléments que j’analyse dans la Search Console :

  1. Présence de pénalité
    1. Dans l’onglet “Sécurité et actions manuelles”
  2. Présence de problème de sécurité
    1. Dans le même onglet que pour la pénalité
  3. Présence de problème avec le fichier robot.txt
    1. Via l’outil dédié : https://www.google.com/webmasters/tools/robots-testing-tool
  4. Présence ou non de problème d’indexation (courant en cette période 2021)
    1. Dans l’onglet “Couverture” > Exclues
  5. Présence d’erreurs éventuelles dans l’onglet “Améliorations”
    1. Dans notre cas, il existe les améliorations suivantes, sans aucune erreur (il peut en exister beaucoup plus) :
      1. Fil d’Ariane
      2. FAQ
      3. Champ de recherche associé aux liens sitelink

Dans les faits, j’analyse une quinzaine de points, mais dans un souci de rendre cet article digeste, je vous passerai les détails. Je n’aborderai dans cet article, en moyenne, qu’un tiers des éléments analysés dans mes audits de contenu. Ceux requérant le plus d’attention à mon sens.

Voici pour ce qui est des résultats d’analyse de la SC pour le site audité :

  • Présence de pénalité : Non ✅
  • Problème de sécurité : Non ✅
  • Problème avec le fichier robot.txt : Non ✅
  • Problème d’indexation : Oui ❌
    • Sur les 243 pages exclues, une bonne trentaine de pages devraient être indexées : la majorité étant explorée mais non indexée. Il faudra donc creuser pour comprendre pourquoi.
  • Présence d’erreurs dans les améliorations : Non ✅

Récolte des données (on site et off site)

Afin de récolter tous les éléments dont j’ai besoin relatif au contenu du site, je vais devoir utiliser Screaming Frog SEO Spider et le connecter à différentes APIs :

  • La Search Console : pour y récupérer les performances sur site au niveau des SERPs (cliques, impressions notamment)
  • Google Analytics : pour récupérer le temps moyen passé par page et le taux de rebond
  • Google Page Speed insights : pour y analyser la vitesse des pages, notamment celles importantes
  • Ahref : pour y récolter les mots-clés positionnés par URL + leurs backlinks

Remarque

Pour récupérer les mots-clés + les backlinks de chaque URL, à ma connaissance, il n’est possible de le faire qu’avec Ahref (d’ailleurs c’est le seul outil SEO qu’on peut “pluger” à SF). J’ai tenté avec SEMrush, en vain. Il est bien possible de récupérer ses backlinks via l’API de Majestic, mais je trouve leur base de données bien moindre que celle d’Ahref.

Screaming Frog nous fournira le reste de ces données :

  • Balise Title
  • Balise H1
  • Balise métadescription
  • Duplicate content (duplication de contenu)
  • Nombre de mots
  • Balise Canonical

Récolter un maximum d’URLs indexables grâce à Screaming Frog SEO Spider

Afin de réaliser un audit de contenu pertinent et couvrant sur toutes les pages figurant dans l’index de Google, il nous est nécessaire de récolter toutes les URLs indexables possibles.

Pour y arriver, j’utilise Screaming Frog + Google Analytics + la Search Console + le Sitemap.xml du site.

Heureusement, comme je l’ai dit Screaming Frog nous permet d’accéder à tous ces outils d’une traite (via API), afin de collecter ces données beaucoup plus rapidement qu’à la mano.

Pourquoi récolter un maximum d’URLs indexables ?

Notre objectif étant d’auditer l’entièreté des pages indexables du site (ayant donc pour objectif de figurer sur les moteurs de recherches), il nous est primordial alors d’en identifier un maximum et de les répertorier dans un fichier.

Nous pourrons alors les analyser une par une, afin de déceler leurs éventuelles lacunes et erreurs, que nous aurons à cœur de corriger pour la bonne santé SEO du site.

Après avoir totalement configuré SF et avoir crawlé le site, j’obtiens un total de 371 pages indexables. C’est un chiffre légèrement différent que celui que j’obtiens quand je tape la commande suivante dans Google : site:prendsensoin.fr, qui m’affiche un total de 359 pages indexées.

Pourquoi se concentrer sur les URLs indexables ?

Car ce sont les pages du site qui ont, en principe, un intérêt à figurer dans les résultats de recherche de Google. Si une page indexable ne présente aucun intérêt à y figurer, nous la passerons alors en no-index, ou la supprimerons pour ne pas polluer la qualité globale du site.

Analyse On-Site préliminaire

Maintenant que nous avons dressé la liste de toutes les pages indexables du site, il va falloir les analyser. Une par une. Afin de déterminer ce qui est à garder, optimiser/améliorer, désindexer ou carrément à supprimer.

Évidemment, dans cet article, je ne vais pas détailler tout le travail effectué sur les 371 URLs du site. Je vais donc vous présenter le travail effectué sur un échantillon de 10 URLs choisies au hasard. Les voici :

liste d'url audité pour l'audit de contenu

Pour chaque URL, je vais analyser la pertinence et l’optimisation de ces éléments :

  • Balise Title (pertinence vis-à-vis du mot-clé ciblé, longueur)
  • Méta description (description personnalisée ou générée ? longueur optimisée ?)
  • Balise canonical (self referencing ?)
  • Pertinence H1 (reprend-il le mot-clé cible ?)
  • Duplicate content (que je ne vais finalement pas pouvoir analyser ici, car SF semble vouloir faire des siennes)
  • Nombre de mots (cela va nous servir plus tard, pour notre analyse concurrentielle)
  • Nombre de liens internes reçu

Voici ce cela donne dans un tableau avec valeurs conditionnelles :

tableau pour s'y retrouver lors d'un audit de contenu

Ce tableau va grandement nous servir pour nous donner une direction dans notre plan d’action.

Mais on peut déjà déduire plusieurs choses :

  1. Il existe 2 pages qui sont en fait les anciennes pages d’accueil du site. Elles sont indexables et n’apportent rien, ni à l’utilisateur, ni à Google. On peut donc déjà indiquer qu’elles sont à supprimer.
  2. Une page listant une tonne de pages internes sans aucun contexte sémantique
  3. Une page catégorie très pauvre en contenu, qui mériterait un bon coup d’amélioration (à l’instar de cette page : https://prendsensoin.fr/bien-etre-animal)
  4. Certaines pages importantes ne reçoivent pas assez de liens internes (comparé à d’autres pages inutiles vues plus haut)

Nous approfondirons cette analyse on-site plus tard dans notre analyse concurrentielle.

Analyse Off-Site

Maintenant que notre analyse préliminaire de l’on-site est terminée, je procède à l’analyse off-site, qui concerne les backlinks et les éventuels partages sociaux que possède le site.

Et Screaming Frog me fait gagner un temps fou vis-à-vis de ça. Souvenez-vous : SF permet la connexion d’outils tels que Ahref pour récolter des données. Grâce à cela j’ai pu extraire le nombre de backlinks de chaque page.

Pour ce qui est des partages, j’utilise le site SharedCount.com, qui me permet de les analyser en Bulk.

Pourquoi est-ce important ?

Si par exemple, une page possédant des backlinks était vouée à être supprimée pour X ou Y raison établie lors de mon rapport, il sera alors nécessaire de savoir s’il est pertinent de faire une redirection pour ne pas perdre le “jus” transmis par ce lien. 

Idem pour les partages. Si la page est vouée à être supprimée, car elle n’est positionnée sur aucun mot-clé et ne reçoit aucun BL, elle est peut-être quand même lue et appréciée par la communauté de l’entreprise. Pour le savoir, il va falloir analyser ces partages et le trafic obtenu via Google Analytics.

L’analyse concurrentielle (et de la SERP)

Les éléments on-site et off-site sont en ma possession. Je vais à présent pouvoir utiliser ces données pour les comparer à la concurrence.

La première des choses à effectuer est de déterminer les mots-clés visés principaux pour chaque page. Normalement votre client vous les fournit et n’avez donc pas à faire ces recherches, mais pour que mon étude de cas soit le plus parlante possible, je vais donc les effectuer.

Pour cela, je vais analyser la title de chaque page et analyser les mots-clés sur lesquels ils se positionnent. Avec un peu de bon sens, je pourrai facilement les identifier.

En gros, ça donne ça :

tableau un peu plus complet pour l'audit de contenu seo

À présent, le travail se fait directement dans la SERP. Je vais analyser chaque concurrent de la première page, un à un.

Je vais considérer les informations suivantes :

  • Nombre de mots
  • Intention de recherche de chaque mot-clé
  • Nombre d’images, présence de vidéo
  • Qualité rédactionnelle
  • Backlink de chaque concurrent sur la SERP visé

Pourquoi déterminer l’intention de recherche ?

Cela nous aidera à savoir précisément quel contenu rédiger pour maximiser nos chances de se positionner en première page. Le contenu d’une page transactionnelle n’est pas le même que celui d’une page informationnelle par exemple.

Pour cette étape, j’utilise SEMrush, qui possède une plus grande base de données de mots-clés français que Ahref.

Pour ce travail en particulier, je vous présenterai les résultats d’une seule URL, largement suffisant pour comprendre le concept et les bénéfices qui découlent de ce processus. Ce sera celle-ci : https://prendsensoin.fr/extension-de-cheveux

Étape n°1 : analyse du nombre de mots + vitesse de chargement

Pour effectuer cette analyse, j’utilise un outil que j’apprécie beaucoup pour cela : Thruuu

thruuu étude de cas

Thruuu me permet de scraper les 10 premiers (voir plus) résultats de la SERP pour un mot-clé défini. Il nous récupère ainsi les données suivantes : 

thruuu résultats de la serp

Grâce à ces données, nous avons un très bel aperçu des caractéristiques de la SERP pour le mot-clé “tarif extension cheveux”.

On peut déjà constater que le nombre de mots moyen est de 1160. Bien loin des 350 mots à peine de l’article audité. Il faudra donc ajouter pas mal de contenu.

Attention

Vous noterez que Screaming Frog m’affiche plus de 2000 mots pour cet URL, ce qui est faux en ce qui concerne le corps de l’article. J’ai probablement mal dû configurer l’exclusion des balises à ne pas prendre en compte pour son calcul.

Pour ce qui est des performances, ce n’est pas dingue côté SERP. Notre URL s’en sort bien mieux avec son score de 87 sur mobile.

Étape n°2 : présence d’images et de vidéos

Pour ce qui est de l’analyse des images et vidéos présentes chez nos concurrents, bien que Thruuu nous fournit un chiffre, je préfère faire une analyse visuelle personnelle. Il n’est pas rare qu’il trouve des images qui n’ont pas d’importance directe vis-à-vis du contenu.

Globalement, la concurrence ne possède pas non plus énormément d’images. Seul un concurrent intègre beaucoup de vidéos.

Dans notre cas, notre article ne possède qu’une seule image : son image à la une. Il ne sera donc pas difficile de l’améliorer de ce côté-là.

Étape n°3 : analyse de la qualité rédactionnelle

Cette troisième étape consiste à comparer le niveau d’écrit du site audité à celui de sa concurrence. Avec un vocabulaire riche et des tournures de phrases françaises. Exempt de fautes d’orthographes et de grammaire.

Il s’agit là évidemment de s’assurer que la qualité rédactionnelle du site audité soit à la hauteur de son ambition.

Voici les points que j’analyse :

  • Orthographe + grammaire
  • Syntaxe
  • Tournures des phrases
  • Éléments  que la concurrence intègre en + du nôtre (tableau, vidéos, podcast…)

Je trouve cette étape cruciale pour le futur du site analysé. La rédaction web est un énorme pilier du site internet. S’il n’est pas agréable de vous lire, les internautes n’auront aucune peine à se rendre chez la concurrence. C’est bien ce qu’on souhaite éviter là.

Pour ce qui est de mon analyse du texte de notre page :

  • Je n’ai décelé aucune faute de français (j’utilise Antidote)
  • La pertinence du contenu semble correcte
  • Le texte est agréable à lire

Et l’analyse du texte de la concurrence :

  • La qualité de rédaction est correcte
  • La concurrence intègre
    • Des tableaux
    • Des listes à puces
    • Des vidéos
    • Des PAA (People Also Ask)
    • Des images avant/après de l’utilisation des extensions

Ces éléments vont nous permettre d’améliorer grandement notre contenu, en incorporant l’intégralité de ces éléments, qui sont pour l’heure absents du nôtre.

Étape n°4 : nombre et qualité des backlinks

Maintenant que nous avons analysé le contenu de la page (+ celle de la concurrence) et décelé plusieurs opportunités d’amélioration, il nous faut analyser le profil de lien de chaque concurrent en première page.

Pour cela, j’utilise Ahref. Rien de plus simple avec son outil “Keyword Explorer”.

analyse de backlink ahref

Rapidement, je peux consulter les backlinks de chaque URL présente en top 10.

Comme nous pouvons le constater, la quasi-totalité des résultats ne présente aucun backlinks. Il sera donc, en théorie, très simple de se positionner sur cette requête avec une bonne amélioration de contenu + des liens. D’autant qu’un seul domaine figure comme étant de grande autorité.

Quant à notre page, elle ne possède aucun backlinks.

À propos de l’analyse de backlinks

Je sortirai plus tard un article détaillant mon processus de valorisation de backlinks. Je n’entrerai donc pas dans ce genre de détail dans cet article.

Établissement d’un plan d’action

Maintenant que nous possédons toutes ces informations, analyses et conclusions, est venu le moment de créer un plan concret et applicable par le client (ou pour moi s’il s’agissait de mon site).

En ce qui concerne l’était global du site d’après mon analyse de la search console : il n’y a aucun problème majeur de contenu.

En ce qui concerne la page que nous avons analysée, son mot-clé cible et sa concurrence, voici ce que nous en avons conclu :

  • Qu’elle manque cruellement de contenu face à la concurrence, qu’il faudrait multiplier par 4 en plus d’y ajouter des images et vidéos.
  • La concurrence intègre des éléments de contenus de valeur, tel que des tableaux, des questions-réponses, etc. Qu’il sera impératif d’intégrer également.
  • Que les concurrents ne possèdent pas ou peu de BL. En faire ne serait que bénéfique après avoir amélioré son contenu.
  • Que l’intention de recherche du mot-clé cible est informationnelle, donc inutile de changer la direction actuelle du contenu.

Avec ces constats-là, il m’est alors très aisé d’établir, dans un nouveau fichier, un plan d’action concret applicable par le client.

En règle générale, j’explique simplement la raison du pourquoi, mais, selon le nombre de pages à analyser, ça prendrait trop de temps. Donc je le fais pour quelques pages, mais plus pour le reste. Le client comprend alors la logique et comprend que rien n’est laissé au hasard.

Malgré tout, il est, selon moi, crucial d’expliquer sa logique dans nos recommandations pour qu’ils puissent prendre confiance en nos processus et notre logique. Ce n’est à ne surtout pas négliger donc.

Pour ce faire, je classifie les URLs du site en fonction des actions à effectuer avec une partie explicative.

Quelques questions à se poser sur les pages de faibles valeurs

Vous aurez peut-être remarqué que dans mon tableau, 4 URLs n’apportent strictement rien à l’internaute ou aux moteurs de recherches. Elles sont pourtant indexables.

Pour savoir si je dois supprimer ou désindexer une page, je me pose les questions suivantes :

  • Sont-elles visitées par mes visiteurs ? Si oui, il faut comprendre pourquoi et s’assurer que ce n’est pas une erreur de navigation.
  • Apportent-elles quelque chose de valeur ? Si la réponse est non, on peut d’ores et déjà se dire qu’il peut être judicieux d’y ajouter l’attribut no-index.
  • Sont-elles pertinentes pour l’index de Google ? Si la réponse est non, que la page ne reçoit pas de visiteurs et qu’elle n’apporte rien à personne, alors on peut considérer sa suppression pure et simple.

Dans notre cas, 2 URLs sont en fait les anciennes pages d’accueil du site. Inutiles pour les visiteurs et les moteurs de recherche. Je recommande donc sa suppression pure et simple :

Idem pour une page de type catégorie, qui se contente de lister une suite de liens internes, dont tout le monde se moque. À supprimer également :

Et une page à, soit désindexer, soit améliorer en y ajoutant du contenu afin de l’enrichir et de thématiser la page :

Conclusion de cet audit de contenu

Globalement, pour faire un audit de contenu efficace, il s’agit de faire preuve de bon sens. C’est d’ailleurs le mot d’ordre en SEO. Faisons du bon travail et tout ira bien.

Je n’ai volontairement pas abordé tous les points analysés, car l’article aurait été beaucoup trop long. Par exemple, je n’ai pas parlé : de maillage interne, des opportunités possibles en termes de données structurées, d’analyse sémantique, ainsi que bien d’autres choses importantes.

Si je devais résumer simplement ce qui fait un bon audit de contenu, je dirais :

  • Qu’il est nécessaire d’identifier et de répertorier toutes les pages indexables du site, car ce sont elles qui sont destinées à apparaitre sur les moteurs de recherche. Par ailleurs, il est aussi indispensable de s’assurer que les contenus importants du site soient indexables. Il peut arriver que, par mégarde, un attribut no-index soit donné à la mauvaise page.
  • De les analyser une par une, pour déterminer ce qui est à garder, améliorer/optimisé ou à désindexer ou supprimer.
  • Créer une liste des pages importantes pour :
    • analyser la qualité de leur contenu
    • s’assurer qu’elles reçoivent une quantité de liens internes suffisante
    • analyser leur optimisation SEO (métas, titres, …)
  • Comparer cette liste-là à la concurrence sur les mots-clés cibles, pour y déceler : forces, faiblesses et opportunités d’améliorations (contenu, mais également en termes de liens externes)
  • S’assurer que le contenu répond à l’intention de recherche (je pense que c’est l’élément le plus important d’un audit de contenu)

Vous l’aurez compris, l’objectif de cette stratégie est donc d’améliorer la qualité globale du site, en supprimant ses éléments superflus voir néfaste, et en améliorant son contenu vis-à-vis des résultats d’analyses effectuées. Mais également identifier d’éventuels problèmes majeurs bloquant en SEO.

J’espère sincèrement que cet article vous aura aidé à y voir plus clair sur le déroulement d’un audit de contenu, et pourquoi pas vous avoir donné de nouvelles idées pour améliorer les vôtres.

Je remercie une nouvelle fois Sébastien de m’avoir prêté son site pour la réalisation de cette petite étude de cas.

Merci de m’avoir lu jusqu’au bout.

Maintenant que cet article est terminé, j’adorerai recevoir vos retours. Avez-vous des process différents ? Une logique différente ? Une critique constructive à faire ? N’hésitez pas à commenter.

Écrit par
Adrien Bur
S’abonner
Notifier de
guest
0 Commentaires
le plus ancien
le plus récent le plus populaire
Inline Feedbacks
View all comments

C’est moi !

Adrien Bur

Éditeur de sites et solopreneur. J'écris comme je parle. On est là.