Screaming Frog SEO Spider, analyser son site pour optimiser son référencement

Dans la difficile tâche d’optimisation du référencement d’un site. Il est important de connaître sur le bout des doigts chaque composante de ce dernier. Un audit SEO est primordial afin de cibler les éventuels freins à votre évolution dans les moteurs de recherche. Screaming Frog se présente comme l’un de meilleurs outils pour vous accompagner dans cette première étape et en tous cas l’un plus célèbres auprès des référenceurs.

  1. Analyser son site
  2. Crawler avec Screaming Frog
  3. Les codes HTTP
  4. Vérifier ses URLs
  5. Les titres et meta-descriptions
  6. Réduire les images
  7. Canonicals, meta-robots et sitemap

Screaming Frog SEO, l’outil idéal pour analyser un site

Avant de l’utiliser, autant savoir ce que la grenouille hurlante a dans le ventre. Cet outil vous permet de crawler votre site (ou le site d’un concurrent) afin d’en retirer de nombreuses informations. Les liens, images, feuilles de style et titres sont ici totalement mis à nu,et exportables en CSV pour une meilleure étude via un logiciel tableur.

Screaming Frog propose de nombreux filtres permettant de mieux cibler les informations, nous allons voir comment les utiliser intelligemment afin de préparer son audit SEO étape par étape.

Crawler son site, extraire toutes les données nécessaires un à audit SEO

Une fois Screaming Frog installé en local sur votre PC, la première étape consiste donc à analyser votre site afin d’en tirer le plus d’informations possible. Pour ce faire, rien de plus simple, il vous suffit de mettre l’URL de votre site dans le premier champ et de lancer le crawl, selon la taille de votre site, cette étape peut prendre un certain temps. Cependant attention, le logiciel n’est pas totalement gratuit. En l’état, Screaming Frog ne prendra en compte que les 500 premières pages (une limite que l’on atteint très vite, surtout avec une partie blog). Au-delà, il faudra passer à la caisse et prendre la version payante.

screaming frog spider seo crawlingCette version payante apporte également des options de crawl non négligeables. Il est ainsi possible d’analyser les sous-domaines associés. Pour ce faire, il suffit de cocher la case “Crawl all Subdomains” depuis configuration>spider.

Vérifier les codes de réponses, anticiper les 404 et les redirections 301

La première chose à faire est ici de vérifier le code de réponse de toutes vos pages. Accessible depuis l’onglet “Response code”, ce filtre vous affiche tous les codes de statut. Faisons un petit récapitulatif de celles qui nous intéressent :

  • 200 : Aucune erreur
  • 301 : Redirection permanente
  • 302 : Redirection temporaire
  • 404 : Page non trouvée
  • 500 : Erreur de serveur
  • 503 : Service indisponible.

Le but principal de la manoeuvre est ici de repérer les erreurs, principalement les 404. Ces dernières sont à éviter pour un bon référencement et sont créées à chaque modification d’URL. En exportant ces pages non trouvées en CSV, il est ainsi facile de préparer un .htaccess dans l’optique de toutes les rediriger en 301.

Le listing de vos redirections 302 peut vous permettre d’analyser leur pertinence afin de les retirer ou de les pérenniser en les passant en 301. Les erreurs 500 et 503 peuvent quant à elles vous donner une indication utile liée au serveur où aux scripts PHP des pages concernées.

Vérifier les URLs avec Screaming Frog, booster son référencement

Le filtre des URL vous permet de voir tous les permaliens de votre site. Bien entendu, nous sommes ici intéressés par les pages et articles. Les liens URLs des fichiers css ou PHP sont ici non pertinents. Le but est simple, trouver toutes les pages dont le permalien est trop long et/ou ne contient pas le mot clé désiré. En référencement naturel, la taille, ça compte ! Assurez-vous donc bien que les URLs sont les plus courtes possible tout en incluant le mot-clé lié à la page.

En exportant ce résultat dans un tableur, il vous sera aisé de repérer les trop longues et de les transformer :

  • Les URLs de type http://monsite.fr/avoir-un-bon-referencement-naturel devront ainsi être réduites à http://monsite.fr/referencement-naturel.

Les filtres titres de pages et meta-descriptions, adapter la sémantique d’un site

Il est maintenant temps de jeter un oeil à nos titres et nos meta-descriptions. Dans les deux cas, il s’agit principalement de vérifier leur longueur et la qualité de leur contenu. Chaque élément doit contenir le ou les mots clés sur lesquels vous désirez positionner la page.

Chaque titre doit être unique et faire plus de 60 caractères, chaque meta-desc doit être unique et posséder minimum 160 caractères. L’outil SERP snipet vous permet de tester la longueur de ces deux éléments instantanément tout en vérifiant leur apparence dans les résultats Google.

screaming frog meta title titre

Réduire la taille des images, améliorer la vitesse du site

L’onglet “Images” permet une visualisation de toutes les images utilisées sur votre site. L’intérêt principal de ce filtre est de vérifier la taille de chacune d’entre elles. Une image trop lourde peut rapidement impacter les performances de votre site, imaginez alors cela sur des dizaines d’images et vous vous retrouverez avec un site très lent.

Filtrer les résultats avec “over 100kb”, toutes les images comprises dans cette liste devront être réduites à une taille optimisée pour le web en utilisant un logiciel de traitement d’image ou un service en ligne.

screaming frog seo image poids

Optimiser les canonicals, les meta-robot et générer un sitemap avec Screaming Frog

L’onglet “Directives” vous permet de constater les canonicals et les meta-robots. Dans l’absolue, chaque page doit posséder une URL canonique. Cette dernière est en général la même que le permalien. La vérification des meta-robot vous permet avant tout d’éliminer toute incohérence dans la déclaration de vos pages en index et follow. Si certaines sont en noindex et/ou nofollow, il sera utile de les réindexer et de supprimer l’attribut nofollow sauf cas exceptionnels.

Une dernière option de Screaming Frog Spider SEO vous offre la possibilité de créer un Sitemap.xml. Ce fichier est indispensable pour un référencement efficace de votre site. Il est systématiquement vu par les moteurs de recherche et leur permet de crawler tout le site en suivant le plan donné par le XML.

Screaming Frog  n’est bien entendu pas suffisant pour garantir un référencement naturel de qualité. D’autres outils et un travail régulier sur la structure et le contenu de vos pages web sont indispensables. Il permet cependant d’avoir une vision globale de votre site et d’en tirer les bonnes conclusions pour travailler sur une base plus saine.

A propos de l'auteur(e)

Pas de commentaire