Audit SEO technique, accessibilité, qualité web et contenus

Est-ce que vous avez déjà essayé de faire avancer une barque percée ? C’est laborieux et voué à l’échec. Et bien, c’est un peu pareil d’optimiser son référencement naturel sans avoir un site au point techniquement. Vos efforts seront bloqués par les problèmes techniques. Avoir un site correct techniquement est la condition qui permet à vos efforts de produire les effets voulu.

Par exemple, vous pouvez avoir le meilleur contenu du monde, si vous utilisez du javascript pour l’afficher, Google ne le verra pas. Cela peut être plus insidieux. Par exemple, si votre site s’affiche mal sur mobile, cela peut annihiler globalement votre visibilité. En effet, votre « taux de satisfaction » sera mécaniquement très bas vu qu’une large partie des utilisateurs navigue avec son téléphone. Un site illisible pour les personnes malvoyantes aura un problème comparable. Mais alors, comment l’éviter ?

C’est là qu’intervient l’audit SEO. Souvent, il intègre un peu toutes les dimensions: SEO technique, accessibilité, qualité web, contenus … Ces éléments sont en effet intriqués. Par exemple, un site dont les titres ne sont pas correctement hiérarchisés ne sera ni pas pratique pour une personne malvoyante (cela peut être source de confusion), ni conforme aux bonnes pratiques SEO.

On trouve de nombreux guides et checklists sur le net, mais je n’ai rien trouvé de satisfaisant: ils assimilent souvent des points de détail avec des éléments cruciaux. Nous allons donc vous en proposer un guide pour réaliser un audit. Nous finirons en distinguant le bon et le mauvais audit seo.

Prélude: savoir où vous en êtes

Avant tout, vous devriez faire un point sur votre site: à quel point est-il visible dans les moteurs de recherche ?

L’outil principal pour cela est la Google Search Console (GSC). C’est un outil merveilleux, gratuit et accessible au propriétaire du site. Il vous informe non seulement sur votre visibilité sur Google, mais aussi sur la santé de votre site. Vous aurez les données de la meilleure qualité sur votre visibilité et si votre site est correctement indexé (enregistrement dans la base de données primaire de Google). Le Bing Webmaster tool est aussi utile pour voir votre visibilité dans Bing.

Vous pouvez également regarder un outil, comme Semrush, Ahref, Yooda Insight ou SEObserver, comment vous vous positionnez. Néanmoins, il s’agit d’estimations moins précises que la Search Console.

1e étape: Vérifier les fondamentaux

Votre référencement naturel peut être annihilé par certaines erreurs: la génération procédurale de pages, le fait de ne pas avoir mis ses url à jour après une migration … C’est ce qu’il faut voir en premier.

Crawl et url valides

Il faut d’abord vérifier la santé globale du site: les pages disponibles et les liens.

Pour cela nous allons utiliser un logiciel pour parcourir les sites (« crawler » ou « spider »). Vous pouvez utiliser un programme open source, Xenu, ou bien Screaming Frog, qui est plus facile à utiliser mais payant pour crawler plus de 500 url. Oncrawl est une autre solution, mais beaucoup plus chère (>100€/mois).

Vous allez récupérer la liste des urls, leur réponse et leur origine. Cela vous permet de vérifier qu’il n’y a pas de liens cassé (= des liens que vous faites vers des url non valides) et de vérifier qu’il n’y a pas de pages qui ne devraient pas exister.

Avoir quelques liens cassés n’est pas un drame, mais en avoir 95% peut détruire votre référencement. De même avoir 20 pages de contenus et 300 pages générées automatiquement avec peu de contenus peut être un gros problème.

Exemple de crawl avec Xenu
Identifier les liens cassés et leur origine

Évitez, en outre, les redirections 301 si possible et, surtout, évitez les chaînes de redirection (plusieurs redirections d’affilée). C’est très très mal vu par Google.

Je vous ferai un tuto complet pour ces outils.

Un autre problème qui peut être grave est l’utilisation de paramètres dans les urls pour gérer les filtres, notamment pour les ecommerce. Cela ne ressort pas forcément des crawlers, il faut aller voir à la main et vérifier.

Enfin, vérifiez que le contenu du pop-up de cookies n’est pas présent en dur (= dans le code html de base) dans vos pages, ou bien qu’il n’est pas trop long. Si vous avez 300 mots par page portant sur la politique de confidentialité, Google pourrait croire que c’est effectivement votre sujet … et que vous répétez toujours la même chose. Pour cela, allez sur votre page, faites clic droit et « code source de la page« . Vous voyez ce que Google voit.

Enfin, si vous êtes accompagné, vous pourrez vouloir faire de l’analyse de logs (mais c’est vraiment avancé).

Https/http, avec ou sans www

Faites en sorte d’avoir un certificat de sécurité https installé et valide sur votre site. Il faut également que toutes les variations de votre url (ex: http://www.votreurl.fr, http://votreurl.fr, etc.) soient redirigées vers votre url principale.

Woops ! (je découvre Nuxt)

La question du javascript

Classiquement, Google a du mal avec javascript. En effet, il demande beaucoup de ressources pour se charger. La position officielle est que Google peut le lire avec un générateur de pré-rendu. Néanmoins, on doute fortement que cela s’applique à toutes les pages. En bref: à part s’il s’agit de pages très populaires, partez du principe que Google ne le voit pas.

Vous devez donc vérifier que le contenu de votre site important pour l’indexation est visible sans javascript. Pour cela, vous pouvez parcourir votre site en désactivant le javascript.

Le directives d’indexation

Il est possible de demander à Google de ne pas parcourir ou indexer des pages de deux manières: avec un fichier, le « robots.txt » et avec les propriétés « noindex » et « nofollow« . Vous le devinez, si c’est fait maladroitement, vous pouvez supprimer vos chances de référencement naturel.

Vérifiez donc que votre robots.txt n’interdit pas l’accès à des pages importantes et qu’il n’y a pas de balises telles que « <meta name="robots" content="noindex, nofollow" /> » sur les pages que vous voulez référencer. Screaming Frog ou Oncrawl peuvent le faire procéduralement, sinon il faut le faire à la main.

Enfin, il y a dans la même idée la question des « canonical« . Une adresse canonical définit la « vraie » adresse de la page. C’est une manière (pas totalement satisfaisante) de gérer la multiplication de pages avec des paramètres: vu qu’elles ont toutes la même url canonical, elles sont considérées, en principe, comme la même page. Dans la même logique, faites attention que la balise hreflang est correctement remplie.

Avoir une vitesse de chargement raisonnable

Si un utilisateur de moteur de recherche clique sur votre lien, que la page ne se charge pas et qu’il retourne en arrière, Google va comprendre que votre page ne répond pas à l’intention de recherche. Bref, vos pages doivent se charger suffisamment vite pour l’éviter. C’est aussi une question d’expérience utilisateur. Attention à ne pas non plus aller trop loin dans l’amélioration de la vitesse de chargement: passé un certain niveau, l’avantage peut être marginal.

« [Si vous n’avez rien de mieux à faire sur votre site, passez à l’optimisation des Core Web Vitals. La plupart des sites ne verront pas de bénéfices à les améliorer] »

Gary Illyes (Google)

Pour le vérifier, il y a une multitude d’outils. Google en propose deux: Lighthouse, une extension Chrome, et PageSpeed Insights. Ils sont très pratiques, car ils proposent des suggestions pour améliorer vos performances. vous pouvez aussi utiliser GTmetrix.

Parmi les principales optimisations, il y a l’utilisation du HTTP/2 pour le serveur, la minification des fichiers JS et CSS et, surtout, la limitation de la taille des images et leur conversion en webp.

L’affichage responsive

Le fait que votre site ne soit pas lisible sur les mobiles peut être un problème extrêmement grave: votre taux de satisfaction sera automatiquement amputé de l’ordre de 50% (plus ou moins, ce la dépend des sujets), l’essentiel du trafic sur Google se faisant sur portable.

Notez que c’est une raison pour laquelle il est souvent mieux de faire des mises en pages simples. Rendre son site web responsive pour des dizaines de formats devient exponentiellement difficile à mesure qu’on complexifie la mise en page.

Un article, fantastique par ailleurs, que je n’ai pas encore rendu responsive

Interroger la Google Search Console

La Google Search Console vous permet notamment découvrir des problèmes sur la performance de vos pages, sur l’affichage, sur les éventuelles sanctions dont Google vous aurait appliquées … (j’en parle dans ma présentation de l’outil).

Si vous ne l’avez pas activée sur votre site, activez-la. C’est vraiment important, vous permettant d’identifier de potentiels problèmes d’indexation.

Chasser les contenus dupliqués (duplicate content)

Google n’a aucune intérêt à avoir plusieurs fois le même contenu dans sa base de donnée et le poids de cette dernière est un problème pour le moteur. Il est donc logique pour lui de sanctionner le contenu dupliqué, « duplicate content » en anglais. Notez que cette exigence peut varier selon le sujet. Ainsi, il pourra être normal pour un ecommerce d’avoir beaucoup de contenus qui sont quasiment identiques, alors que, pour un blog, avoir mettons 20% de contenus dupliqués peut être problématique.

C’est un point de vigilance important: Google ne retiendra qu’une seule des pages se ressemblant trop et ce sera un signal de mauvaise qualité du site.

Un même amusant traduisant un peu comment vous devez percevoir les principales erreurs

Vérifier les éléments sémantiques

Maintenant que nous avons analysé les problèmes qui peuvent détruire tous vos efforts, abordons un sujet moins intense, mais très important: les balises sémantiques. Il s’agit de balises qui sont importantes pour le sens qu’elles communiquent aux moteurs de recherche.

Les urls

Les urls doivent contenir les mots-clés importants et, surtout être intelligibles. En effet, elles informent le lecteur de la page sur laquelle il est et, éventuellement, de sa place sur le site. Par exemple, avec cette url: https://www.uniteinnovation.com/seo/guide/seo-technique/ , vous savez que vous êtes dans la partie sur le SEO technique du guide sur le SEO.

Les title et méta-descriptions

La balise title est sans doute la plus importante pour dire à Google (et à l’utilisateur) ce qu’il y a dans votre page.

Les méta-descriptions sont d’un intérêt variable. Elles ne sont pas retenues pour évaluer le contenu de la page, leur seul intérêt est d’encourager le clic dans les résultats de recherche. Et encore, ~50% du temps, Google les réécrit. Néanmoins, cela demande peu d’efforts et devrait tout de même être fait, au moins pour les pages importantes.

La hiérarchie des titres

Les titres sont censés se suivre logiquement: vos h3 doivent être sous un h2, vous h4 sous un h3, etc. C’est une bonne pratique SEO et accessibilité. En effet, si on vous dit que vous êtes à un niveau h4 alors que vous pensiez être à un niveau h2, vous aurez le sentiment d’avoir loupé quelque chose et d’être perdu.

En outre, les balises de titre ne doivent pas être utilisées juste pour mettre en forme: elle traduisent quelque chose d’important pour comprendre la page. Si vous voulez juste améliorer la présentation, personnalisez le css.

Les données enrichies

En ajoutant certaines balises, vous pouvez avoir des résultats enrichis, c’est-à-dire avec plus d’informations: une photo, une note, un prix … Il y a plusieurs templates.

C’est impératif pour un commerce local, pour avoir sa localisation, ses horaires et autres informations importantes pour les utilisateurs affichés dans les résultats de la carte, par exemple. Idem pour les ecommerce: vous avez besoin de présenter vos produits à travers les métadonnées pour qu’ils apparaissent comme tels, notamment dans le Google Shop.

Backlinks et liens internes

C’est un autre signal très important en SEO: les liens. Ils sont utilisés comme traduisant la popularité des pages. Il y en a de deux types: internes et externes (entrant ou sortant).

Les liens internes sont ceux que vous faites entre les pages de votre site (on parle de maillage interne) et les liens externes sont ceux qui vont vers (sortants) ou viennent d’un autre site (entrants).

Pour simplifier, si vous avez une page vers laquelle votre site renvoie souvent, cela dit à Google « cette page est importante ». Faites un premier point sur le vos liens pour vérifier que vous mettez en valeur les pages pertinentes et si vous ne faites pas trop de liens sortants peu pertinents.

Si vous avez une page qui est beaucoup ciblée par des liens entrants, vous savez qu’elle aura une popularité importante, qu’elle pourra passer à vos pages les plus importantes.

Vous avez un bilan, notamment des liens entrants (qu’on appelle classiquement « backlinks »), dans la Google Search Console. Vous pouvez également utiliser de outils SEO comme Ahref ou SEObserver.

Identifiez les pages à faible contenu

Enfin, faites un point sur les pages à faible contenu. Par exemple, une page de prestation avec une présentation de un ou deux paragraphes est à faible contenu. Cela vous donne une idée de l’ampleur du chantier.

L’accessibilité

Google encourage depuis longtemps les sites à être accessibles, notamment pour les personnes malvoyantes. C’est un domaine gigantesque, essayez d’avoir au moins le minimum: des attributs alt pour les images, des attributs aria-label pour les éléments, que votre site soit navigable au clavier et lisible par les lecteurs d’écran.

Avoir des breadcrumbs valides (option)

Les breadcrumbs, ou « fil d’Ariane », sont un élément faisant apparaître les pages parentes de la page sur laquelle on navigue. Par exemple, pour ma page sur le seo technique, les breadcrumbs sont « (icone) > SEO > Guide > SEO Technique ». Elles sont utiles pour l’expérience utilisateur, permettant de visualiser en un instant où on se situe sur le site.

Elles se doublent d’un marquage au format Schema en Json-LD ou au format microdonnées.

Autres

Installer un tracker

Il est très important de savoir ce qu’il se passe sur votre site internet: combien de visiteurs passent ? D’où viennent-ils ? Quelle est leur trajectoire ? C’est pour cela qu’il vous est nécessaire d’avoir un tracker. Le plus connu est Google Analytics. Une alternative (française) est Matomo.

Il y a aussi des trackers plus lourds, qui étudient comment les personnes interagissent avec vos pages, comme Hotjar.

Pages d’E-A-T

Google valorise le fait que vous soyez une personne ou organisation ayant de l’expertise, de l’autorité et digne de confiance. C’est l’E-A-T, pour Expertice, Authority et Trust.

C’est une obligation légale en plus d’être valorisé par Google: ayez une page de politique de confidentialité et une page de mentions légales correctement rédigées. Il vous faut également une page contact.

Il est également intéressant de:

  • Renseigner les données structurées sur l’auteur et l’organisation
  • Mettre en valeur les auteurs, surtout s’ils ont des compétences en lien avec ce qui est écrit.

Bonnes pratiques

Ces différents éléments sont assez importants, les suivants moins, mais faciles à implémenter et méritent donc votre attention.

  • Avoir une structure d’url cohérente. Avoir toutes ses pages au même niveau dit en substance à Google que toutes vos pages sont aussi importantes et que l’ensemble n’est pas vraiment construit.
  • Que le menu soit codé correctement: les menus sont supposés utiliser des balises, <nav>, <ul>, puis <li>.
  • Optimisez votre page 404: cela rend le fait d’arriver dessus plus agréable et permet de rediriger l’utilisateur de manière pertinente.
  • Il faut pouvoir distinguer les éléments interactifs (surtout un lien d’un non-lien) et animer leur survol (:hover).

Qualité du contenu et stratégie

Une fois que vous avez étudié tout cela, vous avez une vision globale de votre site. Nous venons de voir ce qu’on peut estimer être une bonne base commune aux audits seo.

Les besoins, ensuite, varient beaucoup selon le degré de maturité du projet. Surtout, on sort du cadre de l’audit pour passer, à mon sens, dans le cadre de la stratégie. En effet, certains projets n’ont aucune stratégie claire: inutile dans ce cas d’auditer si telle page ou telle page sont optimisées pour un mot-clé qui n’est même pas identifié. Pour d’autres, le problème est technique: le site a besoin d’être refondu.

Je vais tout de même vous présenter quelques pistes pour améliorer l’existant, en supposant que le site a déjà une bonne matière et exécuté une stratégie correcte.

Étudier les parcours utilisateurs

Faites le point sur vos objectifs: où voulez-vous amener vos utilisateurs ? Quels sont vos produits phare ? C’est le moment pour faire ou mettre à jour vos personas: qui sont vos utilisateurs ? Avoir une vision claire de cet aspect est déterminant pour le reste de la stratégie et la rédaction.

Mettre à jour sa stratégie avec la Google Search Console

La Google Search Console est une mine d’information sur beaucoup de choses, surtout pour les mots-clés. En effet, elle vous renseigne sur le nombre de fois où vos pages sont apparues dans les résultats de recherches (et non les seuls clics, comme Analytics). Vous pouvez ainsi identifier les opportunités: si vous êtes rang 10-20, vous pouvez peut-être atteindre le top 5 en réécrivant un peu la page. Notez que, pour aider à visualiser ces données, qui peuvent être parfois un peu foisonnantes, j’ai développé un outil seo open source.

Plus largement, il est intéressant de régulièrement remettre sa stratégie à plat et voir si on ne trouve pas de nouvelles opportunités.

Retravailler le maillage interne ?

Le maillage interne est quelque chose de très complexe, qui doit régulièrement être remis à plat. En effet, vos pages disponibles évoluent, vous voudrez donc en lier de nouvelles ou bien les lier différemment. En outre, je n’en ai pas trop parlé plus haut, mais elles ont une dimension sémantique: le texte de l’ancre est intégré au contenu de la page ciblée. Vous avez donc envie, idéalement, d’y placer des termes intéressants sémantiquement, mais que vous n’avez pas réussi à placer.

Exemple

Un micro-audit :

Le bon et le mauvais audit

La plupart des articles sur les audits seo sont écrit sur le mode de la checklist: « faites ci, puis ça, etc. » Je ne pense pas que ce soit une bonne démarche.

Tout d’abord, tout le monde n’a pas les mêmes besoins. Il y a beaucoup de micro-détails dans certaines checklists dont la plus-value concrète est discutable. Il faut souvent mieux écrire du contenu que de couper les cheveux en quatre sur la technique.

Les checklists sont pratiques pour éduquer un junior, ou bien à la fin de l’audit pour vérifier qu’on a tout vérifié, mais comme processus d’audit, c’est souvent contre productif. Vous avez, en effet, besoin d’avoir l’ensemble de votre tâche en tête et d’avancer par strates. Chacun a son processus: certains vont immédiatement regarder s’il y a un méga-menu et comment sont gérés les liens en footer, alors que d’autres vont commencer par regarder s’il y a un respect de l’E-A-T dans le contenu. Néanmoins, l’important, c’est que chacun a une image mentale de « ce à quoi un site web est censé ressembler », qui va leur permettre de performer un audit de qualité.

Au contraire, suivre une checklist fait perdre cette image mentale et sa cohérence.

En outre, les audits préconstruits ont un autre problème: le « data dump » (« benne à données »). Vous allez récupérer une myriade de graphiques et de données sans trop pouvoir leur donner de sens ou savoir quoi en faire.

Bref, HALTE AUX CHECKLISTS.

Un bon audit est surtout un audit court, personnalisé et actionnable.


D’autres articles intéressant sur le thème:

  • (en) Crowd Content avec Lily Ray, « Live SEO Clinic With Lily Ray and Carlos Meza », https://www.youtube.com/watch?v=ekBC_kIcQ28
  • (en) SEOsly, The guide on how to perform an in-depth SEO audit that only experienced SEO experts can do. https://seosly.com/blog/seo-audit/
  • (en) Marco Giordano, https://twitter.com/GiordMarco96/status/1579917618898558976
  • (fr) Cedric G., Case study, https://twitter.com/effi_10/status/1582427450029797376
  • (en) Mike Ginley, outil Screaming Frog + GSC: https://www.mikeginley.com/blog/seo-content-audit/

Voici des articles/threads Twitter plus avancés:

  • (en) Marco Giordano, Comment utiliser Gephi pour auditer des sites, https://twitter.com/GiordMarco96/status/1573722324246863874