Parfois les référenceurs ont un vocabulaire étrange, surtout lorsqu’il s’agit d’évoquer le SEO (pensez à faire un audit de référencement naturel). Ce petit lexique est utile pour les termes un peu techniques de ce blog et de ceux que vous commencez à fréquenter. Il est également utile si vous devez faire appel à une agence de référencement. Au passage, cela nous permet d’avoir un petit glossaire à portée de main et nous vous invitons à nous suggérer des modifications ou des ajouts, pas certain que tout y soit 😉
Nous avons placé des ancres sur chaque lettre car vous vous doutez bien que la liste des définitions de ce lexique est un peu longue :
Ensemble voyons les définitions ayant un lien avec le SEO
Lettre après lettre, des définitions vous sont suggérées. Nous vous invitons à nous faire un retour si vous ne trouvez pas une notion correctement expliquée qui vous tient à cœur.
Commençons par la lettre A comme Ancre
A/B Testing : Le test A/B est une méthode incontournable en marketing digital permettant de comparer deux versions (ou plus) d’un même élément pour déterminer laquelle est la plus performante. Cela peut s’appliquer à une landing page, à une campagne d’emailing ou à un bouton d’appel à l’action. Le principe est simple : diviser le trafic entre les variantes et observer laquelle génère le plus de conversions. En SEO, il peut s’agir aussi de tester différents titres ou extraits enrichis dans les SERPs.
Accessibilité : Prise en compte des normes pour rendre un site lisible par tous (dont les personnes handicapées) et par les moteurs de recherche.
Accessibilité mobile : Adaptation d’un site à la navigation sur smartphone ou tablette. Critère majeur du SEO depuis l’index mobile-first.
Accessibilité web (a11y) : Prise en compte des normes d’accessibilité pour que tous les internautes, y compris les personnes en situation de handicap, puissent naviguer efficacement. C’est aussi un facteur pris en compte par Google.
AccuRanker : Solution ultra-rapide de suivi de positionnement SEO. Permet de suivre les mots-clés au quotidien, avec des rapports clairs et personnalisables.
Adblock : Adblock est une extension de navigateur conçue pour bloquer les publicités sur les sites web. Très utilisé par les internautes, il peut impacter directement les revenus publicitaires d’un site et fausser les données d’audience. En SEO, il entre en jeu surtout pour le Display et l’analyse de visibilité publicitaire dans les résultats enrichis (SERP features).
AdWords (désormais Google Ads) : Il s’agit de la plateforme publicitaire de Google. Pendant longtemps, elle a été utilisée par les SEO pour rechercher des mots-clés grâce à son outil de planification intégré. Aujourd’hui, Google Ads permet toujours d’analyser l’intention de recherche mais ne remplace pas un vrai outil sémantique comme SEMrush, Ahrefs ou 1.fr.
Ahrefs : Outil complet d’analyse SEO très utilisé pour étudier les backlinks, suivre les positions et analyser la concurrence. Alternative à Majestic ou SEMrush.
Ahrefs Rank : Indice propre à Ahrefs mesurant la popularité d’un site en fonction du nombre et de la qualité de ses backlinks.
Algorithme BERT : Déployé par Google en 2019, BERT améliore la compréhension du langage naturel dans les requêtes complexes, notamment en analysant le contexte des mots.
Algorithme Google : Ensemble de règles complexes utilisées par Google pour classer les pages web dans ses résultats de recherche, mis à jour régulièrement (Panda, Penguin, etc.).
ALT : L’attribut alt
(alternative text) est utilisé dans la balise <img>
pour décrire une image. Historiquement destiné aux lecteurs d’écran pour les personnes malvoyantes, cet attribut est aujourd’hui aussi un levier SEO : il permet à Google de comprendre le contenu d’une image et d’enrichir le référencement via Google Images. Pour bien faire, utilisez des descriptions précises et sémantiquement riches.
Analytics : Le terme désigne l’analyse des données de fréquentation et de comportement des internautes sur un site. L’outil le plus utilisé est Google Analytics, mais il existe des alternatives comme Matomo (anciennement Piwik), qui offre davantage de respect des données personnelles. Les données collectées permettent d’ajuster sa stratégie de contenu et de suivre l’impact des actions SEO.
Ancre de lien : C’est le texte cliquable d’un lien hypertexte. Dans une stratégie SEO, l’ancre doit être optimisée de façon sémantique lorsqu’elle renvoie vers une page du même site (maillage interne). En revanche, pour les backlinks, il est recommandé de varier et désoptimiser les ancres pour ne pas risquer une pénalité algorithmique (ex. : Penguin).
Annuaire : Un annuaire est un site web qui regroupe d’autres sites classés par thématique ou par localisation. Il permet d’obtenir des liens entrants (backlinks) vers son propre site. Toutefois, leur usage doit rester modéré : privilégiez les annuaires thématiques et géolocalisés de qualité. Les plus anciens, comme DMOZ, ont longtemps fait autorité.
AnswerThePublic : Générateur de questions et d’associations de mots-clés à partir des recherches fréquentes des internautes. Idéal pour structurer une stratégie de contenu.
API : Interface de programmation permettant aux outils de communiquer entre eux. En SEO, utile pour automatiser les analyses ou connecter des données.
Arborescence : L’arborescence d’un site est la manière dont sont hiérarchisées et reliées les pages. Elle reflète la structure de navigation et conditionne une grande partie de l’accessibilité du contenu pour les moteurs. On parle souvent d’organisation en silos pour optimiser la pertinence sémantique d’un site. L’accueil représente le tronc, les catégories principales les branches, les contenus les feuilles.
Atelier de référencement : Un atelier SEO est un événement, souvent en petit comité, visant à sensibiliser ou former à la pratique du référencement naturel. Ils sont proposés par des agences spécialisées ou des organismes comme les Chambres de Commerce. C’est le cas des petits-déjeuners référencement proposés à Arras. Contrairement à un séminaire classique, l’atelier favorise l’échange et les cas pratiques.
Audit de site : L’audit SEO est un diagnostic approfondi visant à identifier les forces et les faiblesses d’un site sur les plans technique, structurel, sémantique et de netlinking. Il peut être on-site (structure HTML, performance, contenu) ou off-site (profil de liens, mentions). L’objectif d’un bon audit de référencement à Paris comme ailleurs est de livrer des recommandations actionnables pour améliorer la visibilité.
Audit SEO technique : Analyse approfondie des éléments techniques d’un site (vitesse, balisage, erreurs, maillage) afin d’en améliorer le référencement naturel.
Autoblog : L’autoblogging est une pratique black hat SEO qui consiste à automatiser la publication de contenus issus d’autres sources (RSS ou scraping). Ces blogs, générés à la chaîne, visent à capter du trafic sans produire de contenu original. Google pénalise sévèrement cette technique depuis Panda (2011), car elle nuit à la qualité globale du Web. Une méthode à éviter… sauf si l’objectif n’est pas la pérennité.
La lettre B comme Backlink, fondamental en référencement naturel
Backlink : Le backlink, ou lien entrant, est l’un des piliers du SEO depuis les débuts de Google. Il s’agit d’un lien hypertexte placé sur un autre site qui pointe vers une page de votre propre site. Sa valeur dépend de nombreux critères : l’autorité du domaine référent, la pertinence sémantique entre les deux contenus, l’ancre utilisée et la fréquence des liens. Les stratégies de backlinks sont variées : naturelles, échangées, achetées, obtenues via le linkbaiting, ou construites via du netlinking organisé. En français, on parle de « lien retour » ou « lien arrivant », mais le terme anglophone reste le plus utilisé. Il est parfois abrégé en « BL » par les SEO.
Backlink Blast : Expression issue du jargon Black Hat SEO, le backlink blast désigne une stratégie agressive visant à générer des milliers de liens artificiels en très peu de temps. L’objectif est de créer une explosion de popularité artificielle pour manipuler les résultats de Google. Parmi les techniques associées : création de faux profils sur des forums, spam de commentaires (Spamco), exploitations de réseaux d’autoblogs, referrer spam, etc. Ces méthodes sont risquées à moyen terme car elles attirent rapidement les pénalités algorithmiques de Google, notamment Penguin.
Backlink toxique : Lien entrant de mauvaise qualité pouvant nuire au référencement. Il est parfois conseillé de les désavouer via Google Search Console.
Backorder : Service permettant de réserver un nom de domaine expiré avant qu’il ne soit à nouveau disponible. Plusieurs plateformes se positionnent pour le récupérer dès qu’il retombe dans le domaine public.
Balisage JSON-LD : Format de balisage de données structurées recommandé par Google, intégré directement dans le code HTML via une balise script.
Balise : En HTML, une balise est un élément syntaxique permettant de structurer un document Web. Elle sert à hiérarchiser l’information (ex. : titres <h1>
, paragraphes <p>
), à intégrer des contenus (images, vidéos, liens), ou à fournir des informations aux moteurs de recherche. La balise <meta>
, notamment description
, permet de fournir un résumé du contenu d’une page. Voici un exemple typique d’une meta description optimisée :
<meta name="description" content="Un petit texte incitatif reprenant quelques mots clés du title pour inciter à cliquer" />
Balise Meta Robots : Balise HTML permettant de contrôler l’indexation d’une page par les moteurs (ex : <meta name="robots" content="noindex, follow">
).
Balises Meta tags : Les méta-balises sont placées entre les balises <head>
et </head>
d’un document HTML. Elles ne sont pas visibles sur la page par l’internaute mais sont analysées par les robots des moteurs. Parmi les balises les plus connues : title
, description
, robots
, ou encore les balises Open Graph pour le partage sur les réseaux sociaux. Leur bonne utilisation influe sur l’affichage dans les SERPs, la visibilité et la manière dont une page est explorée.
Balise Canonical : Balise HTML (rel="canonical"
) indiquant aux moteurs de recherche l’URL à privilégier quand plusieurs pages ont un contenu similaire.
Balise hreflang : Balise HTML indiquant aux moteurs la langue et la région ciblée pour une page Web. Indispensable pour le SEO multilingue.
Balise Open Graph : Balise destinée aux réseaux sociaux, utilisée pour afficher correctement les titres, images et descriptions lors du partage d’un lien (notamment sur Facebook).
Benchmark SEO : Analyse comparative des performances SEO d’un site par rapport à ses concurrents, utile pour ajuster sa stratégie.
Bing : Bing est le moteur de recherche développé par Microsoft. Même s’il représente une part marginale des recherches en France (environ 3 %), il reste pertinent de soumettre son site à l’index Bing via Bing Webmaster Tools. Il est particulièrement utilisé par les appareils Windows et les navigateurs comme Edge, ainsi que dans les environnements professionnels. Un site bien optimisé sur Bing peut parfois générer un trafic qualifié supplémentaire.
Black Hat : Le terme vient des westerns, où les méchants portaient des chapeaux noirs. En SEO, il désigne l’ensemble des techniques non conformes aux consignes de Google, destinées à manipuler les résultats à l’aide de méthodes détournées. Cela inclut le cloaking, le keyword stuffing, le scraping, ou encore le netlinking abusif. Le SEO Black Hat peut offrir des résultats rapides mais comporte de forts risques de pénalités.
Body : Dans le code HTML, la balise <body>
encadre tout le contenu visible d’une page Web (textes, images, formulaires, etc.). Elle se situe entre <head>
et </html>
. C’est dans cette section que les éléments indexables et optimisables pour le SEO prennent place. L’optimisation du body passe par une bonne hiérarchisation des titres (<h1> à <h6>
), un maillage interne intelligent et un contenu sémantiquement riche.
Bombing : Le Google Bombing ou link bombing est une méthode consistant à manipuler les résultats de recherche en associant un mot-clé à une page cible via une masse d’ancres optimisées. Exemples célèbres : la recherche « misérable échec » renvoyait à la page de George W. Bush dans les années 2000. Cette technique est désormais très encadrée et difficilement exploitable du fait des filtres algorithmiques.
Bot : Abréviation de « robot », il désigne un programme chargé d’explorer le Web de manière automatique. GoogleBot est le plus connu. Il scanne les pages, suit les liens, interprète le code HTML et alimente l’index du moteur. Il existe aussi des bots pour Bing, Baidu ou encore Yandex. Le bon balisage et un fichier robots.txt
bien configuré permettent de guider leur exploration.
Botify : Outil SEO pour sites à fort volume (e-commerce, médias). Il offre une analyse complète des logs serveurs, de l’indexation et des performances SEO, avec un accompagnement data marketing.
Bounce Rate : Taux de rebond. Pourcentage de visiteurs qui quittent une page sans effectuer d’action. Un taux élevé peut indiquer un manque de pertinence ou d’engagement.
Brick and Mortar : Littéralement « briques et mortier », cette expression décrit les entreprises physiques avec des points de vente réels (boutiques, agences). Ces structures investissent souvent moins dans leur présence en ligne, comptant sur leur notoriété locale. Le SEO local est une opportunité clé pour ces acteurs afin de capter des recherches géolocalisées, notamment via Google Business Profile.
Browser : Le navigateur Web (ou browser) est l’outil que vous utilisez pour accéder aux pages Internet. Les plus connus sont Chrome, Firefox, Edge, Safari. Le navigateur influence parfois la manière dont une page est rendue (affichage CSS, JavaScript) et peut également être pris en compte dans l’analyse UX ou CRO. Les SEO surveillent aussi les comportements liés aux cookies, aux extensions (comme AdBlock), et à l’interprétation du DOM.
C comme un clic sur un Call-to-Action
Cache Google : Version enregistrée d’une page web par Google. Permet de voir le contenu indexé à un instant donné, même si la page a changé depuis.
Cache serveur : Mécanisme qui stocke temporairement des pages statiques pour améliorer les temps de chargement. Un bon cache serveur optimise les performances SEO.
Call-to-Action (CTA) : Un appel à l’action, ou Call-to-Action, est un élément essentiel de conversion sur une page web. Il s’agit d’un bouton, d’un lien ou d’un message incitant l’utilisateur à effectuer une action précise : s’inscrire à une newsletter, demander un devis, ajouter un produit au panier, etc. Un bon CTA réduit le taux de rebond, améliore la navigation et surtout, transforme le visiteur passif en utilisateur actif. En A/B testing, le CTA est souvent un des premiers éléments testés pour optimiser la performance des pages.
Cannibalisme sémantique : Ce phénomène SEO survient lorsqu’un même mot-clé est ciblé par plusieurs pages d’un même site. Résultat : ces pages se concurrencent entre elles dans les résultats de recherche, ce qui nuit à la visibilité globale du site. Cela se produit souvent lorsque plusieurs contenus similaires sont créés sans stratégie claire de silo sémantique. Parfois, une page catégorie prend le dessus sur une page produit ou article plus pertinent. Des solutions existent : fusion de contenu, redirection 301, réorganisation de l’arborescence…
Canonicalisation : Processus visant à définir l’URL principale parmi plusieurs variantes d’un même contenu. Utilisé pour éviter le contenu dupliqué.
Canonical Tag : Balise HTML déjà évoquée (vocabulaire anglais) utilisée pour signaler l’URL canonique d’une page afin d’éviter le contenu dupliqué. Elle indique aux moteurs quelle version d’une page doit être indexée en priorité.
CDN (Content Delivery Network) : Réseau de serveurs répartis dans le monde entier qui hébergent en cache les fichiers statiques de votre site. Utilisé pour améliorer la vitesse et les performances globales.
Classe C : Partie d’une adresse IP utilisée pour identifier des réseaux similaires. En netlinking, avoir des backlinks venant de différentes classes C est un gage de diversité, donc un bon signal SEO.
Clickjacking SEO : Technique de tromperie visuelle poussant l’utilisateur à cliquer sur un élément invisible ou déguisé.
Cloaking : Technique Black Hat consistant à afficher un contenu différent aux moteurs de recherche et aux utilisateurs humains. Le but est souvent de manipuler l’indexation en montrant un contenu ultra-optimisé au bot (GoogleBot par exemple), tout en servant un contenu plus classique à l’utilisateur. Le cloaking est strictement interdit par Google et peut entraîner une désindexation immédiate du site ; Il peut être utilisé parfois tout de même.
Cloaking via IP Delivery : (voir précédemment) Technique Black Hat consistant à afficher un contenu différent selon l’adresse IP. Le bot de Google voit un contenu optimisé SEO, tandis que l’utilisateur humain voit une version différente (parfois spammy ou trompeuse).
Cluster : En SEO, un cluster désigne un groupe de pages reliées entre elles autour d’un même thème principal. On parle souvent de topic cluster, avec une page pilier (pillar page) centrale et des contenus secondaires qui y sont liés. Cette organisation favorise la compréhension sémantique par les moteurs de recherche et améliore le maillage interne.
CMS : Acronyme de « Content Management System », ou système de gestion de contenu. Les CMS permettent de créer, gérer et mettre à jour des sites Web sans avoir à coder manuellement. WordPress est le plus connu, représentant plus de 40% du web mondial, mais d’autres CMS open source comme Joomla, Drupal ou SPIP sont également utilisés. Ces outils facilitent la création de sites vitrine, blogs, e-commerces ou réseaux de blogs (PBN – Private Blog Network), souvent utilisés dans les stratégies SEO avancées.
Cocon sémantique : Concept popularisé par le consultant SEO Laurent Bourrelly. Il s’agit d’une méthode d’organisation des contenus reposant sur la structuration en silos thématiques interconnectés, avec un maillage interne optimisé et une logique d’intention de recherche. Le cocon repose sur une organisation sémantique hiérarchique qui aide Google à mieux comprendre l’expertise et la pertinence d’un site sur une thématique donnée. Une explication est proposée dans cet article.
Code 200 : Il s’agit du code HTTP renvoyé par le serveur lorsqu’une page est disponible et s’affiche correctement. C’est l’état « normal » d’une page indexable. À l’inverse, un code 301 indique une redirection permanente, un 404 une page introuvable, un 403 un accès refusé. Pour les audits SEO, la vérification des codes de réponse HTTP est essentielle.
Code 404 : Erreur indiquant qu’une page n’existe plus. Trop d’erreurs 404 non gérées nuisent à l’expérience utilisateur et au crawl des robots.
Code 503 : Indique une indisponibilité temporaire du serveur. Peut être utilisé pour signaler une maintenance programmée tout en évitant les pénalités d’indexation.
Compression des images : Réduction du poids des images sans perte de qualité visible pour améliorer les performances du site.
Conférence sur le référencement : Les conférences SEO permettent d’échanger sur les tendances, les techniques et les évolutions du référencement naturel. Elles s’adressent aux professionnels comme aux passionnés. Moins interactives que les ateliers, elles visent souvent à « évangéliser » ou approfondir une expertise. Découvrez par exemple notre conférence sur le backlinking organisée à Arras.
Contenu de qualité : Texte informatif, original et utile répondant aux intentions de recherche. C’est la base de toute stratégie White Hat.
Contenu evergreen : Contenu intemporel qui reste pertinent et utile longtemps après sa publication. Exemples : guides, tutoriels, définitions SEO.
Content Injection : Ajout de contenu invisible ou masqué à des sites hackés (ou vulnérables) pour placer des liens ou mots-clés. Technique illégale liée à du piratage.
Content Spinning : Pratique souvent assimilée au SEO Black Hat, le content spinning consiste à produire automatiquement plusieurs versions d’un même texte en modifiant mots et expressions par des synonymes ou reformulations. Cela vise à dupliquer un contenu tout en évitant les filtres anti-duplicate comme Google Panda. Le spinning mal exécuté est pénalisable. À manier avec précaution… ou à éviter.
Cookie : Fichier texte déposé sur l’ordinateur de l’internaute par le navigateur. Il enregistre des données liées à la navigation : préférences utilisateur, sessions, paniers d’achat… Les cookies sont utilisés à la fois pour améliorer l’expérience utilisateur et pour des finalités marketing (retargeting, statistiques via Google Analytics…). Leur usage est désormais fortement encadré par le RGPD.
Copywriting : Art de rédiger des textes persuasifs dans le but d’inciter à l’action (achat, inscription, clic). Utilisé en SEO pour améliorer le taux de clic (CTR) avec des titres et métadescriptions percutants.
Core Update : Mise à jour générale de l’algorithme de Google affectant le classement global des sites. Ces updates visent à améliorer la pertinence des résultats, sans cibler de techniques spécifiques comme Panda ou Penguin.
Core Web Vitals : Ensemble de métriques mesurant l’expérience utilisateur (temps de chargement, interactivité, stabilité visuelle), prises en compte par Google dans son classement.
CP : Abréviation de « Communiqué de Presse ». En SEO, un CP désigne aussi bien un contenu diffusé dans un cadre journalistique que dans une logique de netlinking. Les plateformes de CP permettent de placer des contenus optimisés contenant des liens retour (backlinks) vers son site. Le placement stratégique dans des annuaires ou des sites spécialisés en CP reste un levier de visibilité à condition de ne pas en abuser.
Crawl : Le crawl désigne l’action des robots d’exploration (ou spiders) des moteurs de recherche qui parcourent le web en suivant les liens. C’est la première étape du référencement naturel : sans crawl, pas d’indexation. La fréquence et la profondeur de crawl dépendent de la structure du site, de son autorité, de la qualité du code HTML et du maillage interne.
Crawl Budget : Nombre de pages que Googlebot est prêt à explorer sur un site dans une période donnée. Il dépend de la popularité du site et de sa structure technique (temps de réponse, erreurs serveur…).
Crawl Budget Waste : Technique illégale visant à saboter un site concurrent en exploitant son budget de crawl avec des URLs inutiles.
Crawler : Logiciel automatisé utilisé par les moteurs (comme GoogleBot, BingBot ou YandexBot) pour explorer les pages web. Le crawler lit le code HTML, suit les liens et transmet les données aux serveurs d’indexation. Il est aussi utilisé dans les outils SEO comme Screaming Frog, OnCrawl ou Botify pour auditer techniquement les sites.
CSS : Signifie « Cascading Style Sheets » ou feuilles de style en cascade. Ces fichiers définissent la mise en page, les couleurs, les polices et les comportements visuels d’un site web. Bien que n’ayant pas de rôle direct dans le SEO, un CSS propre améliore l’expérience utilisateur (UX) et permet un meilleur affichage mobile, ce qui influence indirectement le positionnement.
CTR : Le Click-Through Rate ou taux de clics désigne le ratio entre le nombre de clics sur un lien et le nombre d’affichages (impressions) dans les résultats de recherche. Un CTR élevé signifie que votre balise <title>
et votre meta description sont bien rédigés, attractifs et incitent à cliquer. Il est un indicateur clé de performance en SEO, SEA et Emailing.
Curation : La curation de contenu consiste à rechercher, sélectionner et partager des contenus provenant d’autres sources, en les mettant en valeur via vos propres canaux (blog, réseaux sociaux…). C’est une stratégie SMO (Social Media Optimization) visant à démontrer votre expertise, nourrir votre audience et créer des ponts vers votre propre contenu. Elle ne doit pas être confondue avec la veille SEO, qui reste en interne.
D comme Doctype et Données structurées
Dark Patterns : Pratiques de design manipulatrices visant à inciter l’utilisateur à réaliser des actions contre son gré (ex : newsletter difficile à désinscrire, bouton « Accepter » proéminent). Ces pratiques ne sont pas à proprement parler SEO, mais peuvent impacter négativement l’UX et, à long terme, la réputation et la fidélité utilisateur.
Dashboard Analytics : Espace personnalisé dans un outil de web analytics comme Google Analytics, Matomo ou AT Internet. Il permet de regrouper les indicateurs clés (trafic, taux de rebond, conversions) pour piloter la stratégie SEO.
Data Layer : Concept technique avancé utilisé notamment avec Google Tag Manager. Il permet de stocker et structurer des données sur une page pour les transmettre aux outils d’analyse ou de publicité. Utile en SEO pour bien paramétrer le tracking des conversions ou des événements.
Deep Linking : Le deep linking consiste à faire des liens non pas vers la page d’accueil d’un site, mais vers des pages internes plus profondes. Cela permet d’améliorer la diffusion du link juice dans l’arborescence et de booster des pages stratégiques peu accessibles.
Désindexation : Action volontaire (via balise noindex
, robots.txt ou Search Console) ou involontaire (pénalité, erreur technique) qui empêche l’apparition d’une page dans les résultats des moteurs. À surveiller avec attention dans le cadre d’un audit SEO.
Detailed SEO Extension : Proposée par Brian Dean (Backlinko), cette extension affiche en un clic toutes les informations SEO importantes d’une page : title, meta description, canonical, Open Graph, liens internes et externes.
Disavow : Fichier .txt utilisé dans la Search Console pour désavouer des liens entrants jugés néfastes (toxiques) par le webmaster. Ce fichier indique à Google de ne pas tenir compte de certains backlinks dans l’évaluation d’un site, utile après une pénalité ou un netlinking douteux.
DNS (Domain Name System) : Système qui traduit les noms de domaine lisibles (comme facemweb.com) en adresses IP compréhensibles par les machines. Bien que purement technique, une mauvaise configuration DNS peut entraîner des erreurs 404 ou des lenteurs d’accès, affectant l’expérience utilisateur et le SEO.
Doctype : Abréviation de « document type », le doctype est une déclaration obligatoire en tête de chaque document HTML. Il permet aux navigateurs et aux robots des moteurs de recherche de comprendre le type de contenu à traiter et la version du HTML utilisée (par exemple : HTML5). L’oubli ou l’erreur dans cette déclaration peut provoquer des problèmes d’affichage ou d’interprétation des contenus. Le doctype est un prérequis technique à toute analyse SEO correcte.
Dofollow : Par défaut, tous les liens HTML sont « dofollow », c’est-à-dire qu’ils transmettent l’autorité (ou link juice) à la page cible. Le contraire d’un lien nofollow, qui indique aux moteurs de ne pas suivre le lien. Le dofollow est un élément fondamental dans les stratégies de netlinking : il permet de renforcer le référencement naturel d’une page en lui transférant du PageRank.
DOM (Document Object Model) : Structure hiérarchique du code HTML qui peut influencer la vitesse de chargement, le crawl, ou encore le comportement des scripts JavaScript. Un DOM trop complexe ou mal optimisé peut ralentir l’affichage et nuire au SEO technique.
Domain Authority (DA) : Indicateur développé par Moz pour estimer la capacité d’un domaine à se positionner dans les SERP. Score de 1 à 100 basé sur la qualité des liens entrants.
Domaine expiré : Nom de domaine dont l’enregistrement n’a pas été renouvelé. Utilisé en SEO pour récupérer son historique, ses backlinks et son autorité. Peut être intégré à un PBN ou redirigé vers un money site.
Données structurées : Les données structurées sont des balises spécifiques insérées dans le code HTML (souvent en JSON-LD ou microdata) qui permettent aux moteurs de recherche de mieux comprendre le contenu d’une page. Elles sont à la base des rich snippets (étoiles, événements, recettes, FAQ, etc.) dans les SERPs. Pour aller plus loin, consultez notre article sur les données structurées pour WordPress.
Doorway Pages : Pratique Black Hat. Pages créées spécifiquement pour se positionner sur des requêtes précises et rediriger automatiquement vers une autre.
Down Time : Temps pendant lequel un site est inaccessible. Un taux de disponibilité inférieur à 99,9% peut avoir un impact SEO négatif, car les robots ne peuvent pas crawler les pages indisponibles.
Duplicate Content : On parle de contenu dupliqué lorsque deux pages (ou plus) présentent un contenu identique ou très similaire, sur un même site ou sur des sites différents. Le duplicate content peut nuire à l’indexation et au positionnement des pages concernées. Il peut survenir par exemple lors de la coexistence de versions HTTP et HTTPS d’un site mal redirigé, ou par la duplication des contenus entre catégories ou tags WordPress. Des outils d’analyse comme Siteliner, Screaming Frog ou SEMrush permettent de le détecter.
Duplicate Title : Titre identique utilisé sur plusieurs pages d’un site. Néfaste pour le SEO, il nuit à la clarté et à l’unicité du contenu pour les moteurs.
Dropcatch : Pratique consistant à récupérer un domaine immédiatement après son expiration. Les services spécialisés utilisent des robots pour l’enregistrer avant les autres.
E comme En-tête et Erreurs à éviter
E-E-A-T : Acronyme pour « Experience, Expertise, Authoritativeness, Trustworthiness », soit en français : Expérience, Expertise, Autorité et Fiabilité. Ce concept a été introduit par Google dans ses Quality Raters Guidelines pour aider les évaluateurs de qualité à estimer la crédibilité des pages Web. Initialement connu sous le nom de E-A-T, le concept a évolué avec l’ajout du premier E pour « Experience » en décembre 2022, soulignant l’importance du vécu direct dans le traitement d’un sujet. Une page qui traite d’un produit ou d’un service avec un témoignage, une démonstration ou une utilisation réelle est donc mieux perçue qu’une simple analyse théorique. Voici ce que chaque lettre implique :
- Experience : l’auteur ou le site a-t-il une réelle expérience pratique du sujet ?
- Expertise : le contenu a-t-il été rédigé par quelqu’un qui possède des connaissances approfondies, voire une formation sur le sujet ?
- Authoritativeness : le site ou l’auteur sont-ils reconnus dans leur domaine ? Ont-ils une bonne réputation ?
- Trustworthiness : la page inspire-t-elle confiance ? Est-elle sécurisée, transparente, fiable ?
Google n’utilise pas directement E-E-A-T comme critère algorithmique, mais l’ensemble de ces dimensions est pris en compte à travers des signaux indirects : mentions externes, structure du site, contenu de qualité, réputation de l’auteur, HTTPS, mentions légales, etc. Le respect de l’E-E-A-T est particulièrement important pour les sites YMYL (Your Money or Your Life vu à la lettre Y) comme ceux abordant la santé, la finance ou le droit. Il constitue un pilier fondamental pour améliorer le référencement naturel sur le long terme.
EMD (Exact Match Domain) : Littéralement « nom de domaine à correspondance exacte », un EMD contient précisément le ou les mots clés visés par une requête. Par exemple, www.chaussure-running-pas-cher.fr
serait un EMD pour la recherche « chaussure running pas cher ». Longtemps favorisé par les moteurs, ce type de domaine peut encore avoir un léger impact sur le positionnement, surtout sur des requêtes locales ou peu concurrentielles, mais attention à ne pas tomber dans l’excès (risque de spammy domain).
En-tête (Header) : L’en-tête d’un site web correspond à la partie supérieure visible de la page, mais aussi — dans un sens plus technique — à la portion HTML située entre les balises <head>
et </head>
. C’est ici que l’on place les balises méta, le lien vers les feuilles de style CSS, les scripts, et parfois les balises structurées JSON-LD. Une bonne optimisation de cette zone est capitale pour le SEO technique (vitesse, accessibilité, indexabilité, sécurité…).
Entités : Concepts ou objets clairement identifiables par Google (personnes, lieux, marques…). Elles sont au cœur du Web sémantique.
Entity : En anglais cette fois, représentation d’un concept ou objet identifié par Google dans sa base de connaissances. Utilisé pour améliorer la compréhension sémantique des contenus.
Erreur 404 : Cette erreur signifie que la page demandée n’existe pas ou plus. Elle est généralement causée par un lien cassé ou une URL mal tapée. Trop d’erreurs 404 dans un site peuvent altérer l’expérience utilisateur et faire chuter la qualité perçue du site par Google. Il est conseillé de rediriger les anciennes URLs vers des pages existantes (via une redirection 301), ou d’utiliser une page 404 personnalisée pour guider l’utilisateur vers un contenu pertinent.
Erreur 500 : L’erreur 500 est une erreur interne du serveur, indiquant un dysfonctionnement critique (par exemple : surcharge du serveur, mauvaise configuration de fichier .htaccess, conflit de plugins, etc.). Cette erreur empêche totalement l’affichage de la page, voire du site entier. Elle peut nuire à l’indexation et doit être résolue rapidement.
Entonnoir de conversion (Funnel) : Concept utilisé en marketing et en SEO pour désigner les étapes que suit un utilisateur depuis sa première visite jusqu’à la conversion finale (achat, inscription, contact). Un bon maillage interne et un bon contenu permettent d’optimiser le parcours utilisateur dans cet entonnoir.
Engagement : Indicateur clé dans une stratégie de contenu, l’engagement mesure l’interaction des utilisateurs avec un contenu (temps passé sur la page, commentaires, partages, clics). Un bon taux d’engagement est souvent un signal positif pour le SEO.
Expérience utilisateur (UX) : L’expérience utilisateur regroupe l’ensemble des émotions, ressentis et comportements d’un internaute sur votre site. Depuis la mise à jour Google Page Experience (2021), des signaux comme la vitesse de chargement (Core Web Vitals), l’interactivité, la stabilité visuelle ou encore l’ergonomie mobile sont devenus des facteurs de classement.
Expired Domain : La notion en version anglaise du domaine expiré vu plus haut, soit un nom de domaine précédemment enregistré mais qui n’a pas été renouvelé. Très prisés en SEO, ils peuvent être utilisés pour des redirections permanentes 301 afin de transmettre de la popularité.
Extrait enrichi (Rich Snippet) : Affichage enrichi d’un résultat dans les SERPs, grâce à des données structurées. Cela peut être des étoiles, des avis, un temps de cuisson, une note, un prix… Ces extraits augmentent significativement le CTR (Click Through Rate) d’une page, même en l’absence de meilleure position. À ne pas confondre avec les « featured snippets ».
Exploration (Crawl) : Voir la lettre C, mais rappel utile ici : l’exploration désigne l’action des bots qui visitent votre site pour découvrir de nouveaux contenus. L’efficacité de cette exploration dépend en partie du maillage interne et du fichier robots.txt.
Externalisation SEO : Fait de déléguer tout ou partie du référencement d’un site à un prestataire externe (freelance ou agence). Ce modèle est courant pour les entreprises qui ne disposent pas de ressource en interne.
Éditeur WYSIWYG : De l’anglais « What You See Is What You Get », cet éditeur visuel permet de rédiger et de mettre en forme du contenu sans écrire une ligne de code. Très utilisé dans WordPress (Gutenberg, TinyMCE), il influence la structuration des titres et des balises — un point à surveiller pour le SEO on-page.
Expired Domain Boosting : Rachat de domaines expirés avec backlinks puissants pour les rediriger vers un site cible.
F comme Footer, Featured Snippets et Fichiers FTP
Fake CTR Manipulation : Envoi de clics automatisés sur des résultats de recherche pour faire croire à Google qu’un site est plus populaire.
Fake Reviews SEO : Génération ou achat massif d’avis positifs (ou négatifs pour concurrents) pour manipuler la réputation, illégal.
Fake Schema Markup : Utilisation abusive des balises de données structurées pour faire apparaître des étoiles, avis ou données non vérifiables dans les SERPs.
Fake Social Signals : Achat ou génération automatique de likes, partages, ou abonnés pour tromper Google sur la popularité d’un contenu. Illégal.
Faux profil : Il s’agit de profils créés de manière artificielle sur des plateformes comme les forums, les blogs, les réseaux sociaux ou les annuaires, souvent dans l’objectif de diffuser des contenus, poser des backlinks, ou gonfler artificiellement une popularité. Cette pratique est typique du SEO dit « black hat ». Google, Facebook ou X (ex-Twitter) mettent en place des algorithmes de détection pour limiter leur impact. Cependant, lorsqu’ils sont bien configurés, ces profils peuvent encore jouer un rôle dans des stratégies de netlinking.
Featured Snippet : C’est l’encadré que Google affiche tout en haut de ses résultats de recherche, parfois appelé la “position 0”. Il est extrait automatiquement d’un site jugé pertinent pour répondre directement à une question posée par un internaute. Ce snippet peut prendre différentes formes : un paragraphe explicatif, une liste à puces, un tableau ou une définition. Être sélectionné pour un featured snippet peut considérablement augmenter le taux de clics, même si vous n’êtes pas en première position classique. Pour y parvenir, il faut structurer ses contenus, utiliser des balises <h2>
et <h3>
pertinentes, répondre clairement aux requêtes et utiliser des listes ou des tableaux.
Fil d’Ariane (Breadcrumb) : C’est un outil de navigation qui indique à l’utilisateur sa position dans la hiérarchie du site. Très apprécié pour l’expérience utilisateur (UX), il permet aussi d’améliorer le maillage interne et d’ajouter des données structurées utiles au SEO. Exemple : Accueil > Catégorie > Sous-catégorie > Article. Le fil d’Ariane facilite aussi l’indexation par les robots et permet à Google d’afficher une structure de lien enrichie dans les SERPs (Voir à ce propos le fil d’Ariane sur WP).
Footer : Le pied de page d’un site web. Il apparaît en bas de toutes les pages et peut contenir des informations de contact, des liens utiles (plan du site, mentions légales, politique de confidentialité), un copyright, ou encore des liens internes et externes. Attention cependant à ne pas le surcharger de liens : trop d’ancrages dans le footer peuvent diluer le PageRank transmis, et certaines mises à jour Google (notamment Penguin) ont pénalisé les sites utilisant des footers à forte densité de liens optimisés.
Forum : Plateforme d’échange permettant de discuter d’un sujet, poser des questions ou diffuser des connaissances. Dans une optique SEO, les forums sont parfois utilisés pour créer des backlinks via des signatures ou commentaires. Toutefois, les liens y sont souvent en nofollow
. À privilégier pour le trafic de qualité et la notoriété, plus que pour le simple jus SEO. Exemples : WebRankInfo, ScriptSEO, ou encore des sous-forums de Reddit.
FTP (File Transfer Protocol) : Protocole de communication permettant de transférer des fichiers entre un ordinateur et un serveur web. Un logiciel FTP (comme FileZilla ou Cyberduck) permet de modifier des fichiers du site (comme .htaccess
ou robots.txt
) ou d’en uploader de nouveaux (scripts, images, etc.). Il est essentiel pour tout développeur ou référenceur technique qui souhaite intervenir directement sur la structure d’un site.
Faceted Navigation (Navigation à facettes) : Système utilisé principalement dans les sites e-commerce pour permettre aux utilisateurs de filtrer les produits par critères (taille, couleur, prix, marque…). Mal configurée, cette navigation génère des milliers de pages similaires indexées, créant un risque de contenu dupliqué. L’utilisation de balises noindex
ou canonical
est alors recommandée.
Fichier sitemap.xml : Ce fichier XML indique aux moteurs de recherche la liste des URLs importantes de votre site. Il facilite l’indexation, surtout des pages profondes ou récemment ajoutées. Il est conseillé de l’envoyer via Google Search Console ou Bing Webmaster Tools. Les CMS comme WordPress, via Yoast SEO, génèrent ce fichier automatiquement.
Fichier robots.txt : Placé à la racine d’un site, ce fichier sert à indiquer aux robots des moteurs ce qu’ils peuvent ou ne peuvent pas explorer. Il ne bloque pas l’indexation à lui seul, mais empêche le crawl. Attention aux erreurs de configuration : interdire des répertoires utiles (comme /wp-content/uploads) peut pénaliser l’affichage des images dans les SERPs.
Facilitateur de conversion : Élément visuel ou textuel sur une page web ayant pour but d’orienter l’internaute vers une action (achat, inscription, clic…). Cela peut être un bouton CTA bien visible, une note d’évaluation, une preuve sociale ou un badge de sécurité. Leur bon usage influe indirectement sur le SEO via l’amélioration du taux de conversion et de l’engagement.
G comme Google, Growth et Guidelines
GA4 : Nouvelle version de Google Analytics, remplaçant Universal Analytics depuis 2023. GA4 repose sur un modèle orienté événements et offre une meilleure compréhension du parcours utilisateur.
Ghost Posting : Publication d’articles invités sur des blogs sans autorisation réelle ou en usurpant des identités (illégal).
Google Analytics : Outil d’analyse gratuit proposé par Google permettant de mesurer, visualiser et interpréter les données de fréquentation d’un site web. Il permet de suivre le comportement des visiteurs (pages vues, durée des sessions, taux de rebond, sources de trafic…), d’identifier les pages les plus performantes et de prendre des décisions éclairées sur les stratégies de conversion. Longtemps utilisé pour toutes les typologies de sites (e-commerce, blog, institutionnel…), il a récemment été remplacé par Google Analytics 4 (GA4), une version plus complète mais parfois critiquée pour sa complexité. À noter que certains référenceurs black hat l’ont utilisé dans le passé pour générer du faux trafic via le spam referral. Découvrez comment configurer correctement Google Analytics.
Google Bombing : Aussi appelée « Google Bomb », cette pratique consistait à manipuler les résultats de recherche en créant massivement des liens avec une même ancre optimisée (souvent humoristique ou péjorative) pointant vers une page cible. Ce fut le cas célèbre de l’expression « misérable échec » renvoyant à la page de George W. Bush. Google a depuis modifié son algorithme pour limiter ce type d’abus, notamment via des filtres sémantiques et le traitement contextuel des liens.
Googlebot : Il s’agit du robot d’exploration (ou crawler) utilisé par Google pour analyser les pages web. Googlebot parcourt le web en suivant les liens, en explorant les contenus, et en envoyant les données collectées aux serveurs de Google pour l’indexation. Il en existe plusieurs versions : une pour les ordinateurs, une pour les mobiles (plus utilisée depuis l’avènement du mobile-first indexing), et des variantes pour les images, les actualités, etc.
Google Discover : Flux personnalisé proposé par Google sur mobile. Il présente des contenus sélectionnés en fonction des centres d’intérêt de l’internaute, sans requête tapée. Très utile pour générer du trafic si ton contenu est frais, engageant et bien illustré.
Google Keyword Planner : Outil de planification de mots-clés intégré à Google Ads. Donne une estimation du volume de recherche mensuel et du niveau de concurrence.
Google My Business : Désormais intégré à Google Business Profile, c’est l’outil par excellence pour optimiser sa visibilité locale. Il permet de faire apparaître votre entreprise dans Google Maps et dans le pack local des résultats de recherche. Ajouter des horaires, des photos, des avis clients, ou encore publier des actualités (posts) améliore nettement la présence locale. Attention cependant aux abus : Google surveille les fausses fiches, doublons ou adresses fictives, encore largement utilisés dans des pratiques de référencement local agressif.
Google Search Console : Anciennement Google Webmaster Tools, c’est l’interface gratuite mise à disposition par Google pour les webmasters. Elle permet d’analyser l’état d’indexation d’un site, de suivre les performances SEO (impressions, clics, positions), de détecter des erreurs techniques (pages non indexées, problèmes de crawl, sécurité…), de soumettre des sitemaps, et de désavouer des backlinks toxiques. Outil incontournable pour tout travail de référencement.
Google Suggest : Fonction de suggestion automatique intégrée à la barre de recherche de Google. Basée sur l’analyse des requêtes les plus fréquentes, elle permet aux référenceurs de découvrir de nouvelles idées de mots-clés longue traîne ou d’anticiper les intentions de recherche. Ces suggestions peuvent également révéler des associations inattendues entre thématiques ou marques.
Google Suggest Poisoning : Manipulation des suggestions de Google (autocomplete) avec des requêtes orientées pour influencer la recherche.
Google Trends : Outil d’analyse des tendances de recherche. Il permet de comparer la popularité de différentes requêtes au fil du temps, d’identifier des pics saisonniers ou de surveiller l’évolution d’un sujet. Très utile pour le SEO éditorial ou le choix de mots-clés dans des contextes de forte concurrence.
Growth Hacking : Ce terme désigne l’ensemble des techniques marketing — souvent hybrides entre SEO, automation, emailing et AB testing — mises en œuvre pour accélérer rapidement la croissance d’un site ou d’une start-up. Le SEO est une composante importante du growth hacking, car il permet d’acquérir du trafic durable et qualifié. Exemples : scraper les résultats Google pour générer des landing pages automatisées, utiliser des outils d’analyse pour identifier les opportunités à fort potentiel de conversion, ou encore faire du retargeting très ciblé.
GTmetrix : Analyse la vitesse de chargement d’un site et donne des recommandations d’optimisation pour améliorer l’expérience utilisateur et les performances SEO.
Guidelines (ou consignes Google) : Règles de bonne conduite éditées par Google, destinées aux webmasters et développeurs. Elles précisent ce que le moteur de recherche considère comme des pratiques acceptables (white hat) ou non (black hat). Les Google Guidelines sont régulièrement mises à jour, notamment après les grandes mises à jour algorithmiques (Panda, Penguin, Helpful Content…). Les ignorer revient à prendre le risque d’un déclassement ou d’une pénalité manuelle.
H comme HyperText Transfer Protocol, autrement dit… le Web tel qu’on le connaît
301 Hijacking : Tentative de rediriger le trafic d’un site légitime vers un autre via des redirections 301 manipulées.
Head : La balise <head>
constitue l’en-tête d’un document HTML. Elle est invisible pour l’internaute mais essentielle pour les navigateurs et moteurs de recherche. Elle contient des éléments clés comme le <title>
, les balises meta (description, viewport, charset…), les feuilles de style CSS, les scripts JavaScript ou encore les données structurées. Une bonne maîtrise de cette section est indispensable pour un SEO technique efficace.
Hébergement localisé : Le lieu physique du serveur peut influencer le SEO local. Un site français hébergé en France sera mieux positionné pour les recherches locales françaises.
Helpful Content Update : Mise à jour de Google déployée en 2022 visant à valoriser les contenus réellement utiles, centrés sur l’utilisateur, et à pénaliser les pages créées uniquement pour le référencement.
Hn : Ce terme regroupe l’ensemble des balises de titres HTML : H1
, H2
, H3
, jusqu’à H6
. Ces balises structurent la hiérarchie de l’information dans un contenu. Elles jouent un rôle important à la fois pour la lisibilité (UX) et pour l’analyse sémantique par les moteurs. voir notre guide sur les balises Hx.
HTACCESS : Fichier de configuration serveur utilisé notamment avec les hébergements Apache. Le fichier .htaccess
permet de gérer des redirections (ex. 301 permanentes), la réécriture d’URL, la protection de certaines pages via mot de passe, ou encore l’ajout de règles de sécurité (restriction d’IP, désactivation d’indexation de répertoires, etc.). Très utilisé pour le passage de HTTP à HTTPS ou pour le SEO technique. En savoir plus sur le fichier htaccess.
HTML : Acronyme de HyperText Markup Language, le HTML est le langage de base du Web. C’est ce qui structure le contenu d’une page. Nous sommes aujourd’hui à la version HTML5, qui intègre des éléments multimédias, des balises sémantiques (<article>
, <section>
, <aside>
…), et une compatibilité renforcée pour les mobiles. Le HTML est essentiel pour un bon balisage SEO, même si ce n’est qu’un des éléments du trio HTML / CSS / JavaScript.
HTTP : HyperText Transfer Protocol désigne le protocole standard utilisé pour transférer les données entre un navigateur et un serveur web. Ce protocole est à la base de la navigation sur le Web. Cependant, les données envoyées via HTTP ne sont pas chiffrées, ce qui en fait un protocole peu sûr dans les contextes sensibles (formulaires, paiements…).
HTTPS : Variante sécurisée du HTTP (le « S » signifiant « Secure »). Il repose sur le chiffrement SSL/TLS, garantissant que les données échangées entre le navigateur et le serveur sont sécurisées. Google a officialisé dès 2014 que le HTTPS devenait un signal positif de classement SEO. Aujourd’hui, un site non sécurisé est marqué comme « non sécurisé » dans les navigateurs — un vrai repoussoir pour les utilisateurs. Le HTTPS est aussi indispensable pour activer des fonctionnalités modernes comme l’AMP, certains cookies, ou le service workers en PWA.
Hyperlien : Un hyperlien ou lien hypertexte est un élément cliquable qui relie deux documents ou deux parties d’un même document. Il peut pointer vers une autre page du même site (lien interne) ou vers une page externe (lien externe / backlink). C’est la base même du Web et un levier stratégique en SEO. Les hyperliens sont utilisés à travers l’attribut <a href="...">
.
I comme Inbound, Indexation et Intention
Iframe Injection : Insertion d’un site dans un autre via iframe pour détourner son trafic ou injecter du contenu malveillant. Illégal.
Inbound Marketing : Stratégie de marketing digital visant à faire venir naturellement les clients à soi plutôt que d’aller les chercher avec des techniques de prospection traditionnelles (publicité, démarchage…). L’inbound consiste à créer du contenu de qualité (articles de blog, livres blancs, vidéos, newsletters…) pour répondre aux besoins ou intentions des internautes à chaque étape du tunnel de conversion. Cela permet d’attirer un trafic qualifié, d’améliorer le positionnement SEO, de renforcer la notoriété de marque, et in fine de générer des leads. Voir à ce propos notre définition de l’inbound marketing.
L’inbound marketing s’appuie sur une logique de permission plutôt que d’interruption. C’est la pierre angulaire d’un référencement durable et d’une audience engagée.
Indexation : L’indexation est le processus par lequel les moteurs de recherche enregistrent une page web dans leur base de données, pour ensuite la rendre disponible dans les résultats de recherche (SERP). Pour qu’une page soit indexée, elle doit d’abord être crawlée par un robot (comme GoogleBot), puis jugée pertinente et accessible. Si une page n’est pas indexée, elle ne peut pas apparaître dans Google.
Vous pouvez suivre l’état d’indexation de vos pages à l’aide de la Google Search Console, notamment via le rapport « Pages » (anciennement « Couverture »). Il est également possible de soumettre manuellement une URL pour indexation ou d’identifier les problèmes bloquant l’indexation (erreurs 404, balises noindex, sitemap manquant…).
Index Bloating : Création massive de pages sans valeur (tags, filtres…) pour gonfler artificiellement le nombre de pages indexées.
Index Mobile-First : Mode d’exploration et d’indexation de Google qui privilégie la version mobile d’un site plutôt que la version desktop. Il est en vigueur pour la majorité des sites depuis 2021.
Intention de recherche : Concept clé du SEO moderne. Il s’agit d’identifier ce que souhaite réellement l’utilisateur lorsqu’il tape une requête dans un moteur de recherche : recherche-t-il une information ? souhaite-t-il acheter un produit ? comparer des services ? Les intentions sont généralement classées en trois catégories :
- Informationnelle (ex : « comment faire un compost maison »)
- Navigationnelle (ex : « connexion banque CIC »)
- Transactionnelle (ex : « acheter PC portable pas cher »)
Adapter son contenu à l’intention derrière la requête est désormais un facteur déterminant pour le positionnement SEO.
Internal linking (ou maillage interne) : Structure de liens entre les différentes pages d’un même site. Le maillage interne vise à :
- Distribuer l’autorité (link juice) entre les pages
- Renforcer la sémantique du site
- Faciliter la navigation et l’indexation
- Mettre en avant les pages stratégiques (landing pages, pages de conversion, etc.)
Pour optimiser l’internal linking, privilégiez des ancres de lien pertinentes et contextualisées, évitez les liens brisés, et pensez aux pages orphelines (non liées).
Invisible Text : Texte bourré de mots-clés caché à l’œil humain (via CSS ou couleur identique à l’arrière-plan). Pratique SEO fqui fonctionnait sur les anciens moteurs comme Altavista ou encore Lycos qui n’est plus utilisée sur les moteurs orientés sémantique modernes.
IP (Internet Protocol) : Adresse unique identifiant chaque appareil connecté à un réseau. En SEO, l’IP permet d’analyser la provenance des backlinks ou d’un hébergeur, utile pour détecter un réseau privé (PBN).
IPv4 : Format d’adresse IP classique, composé de 4 blocs de chiffres (ex. : 192.168.0.1). Il est toujours très utilisé malgré la pénurie d’adresses disponibles.
IPv6 : Nouvelle version du protocole IP, composée de groupes hexadécimaux (ex. : 2001:0db8:85a3::8a2e:0370:7334). Il résout la limitation d’adresses de l’IPv4.
J comme JavaScript, JSON-LD et Juicy Linking
JavaScript : JavaScript est un langage de programmation de scripts orienté objet principalement utilisé dans les pages Web pour rendre les contenus interactifs : menus déroulants, animations, formulaires dynamiques, pop-ups, etc. Très puissant, il est également utilisé pour l’insertion de balises de suivi, comme celles de Google Analytics ou de Google Tag Manager.
En matière de SEO, JavaScript a longtemps été perçu comme un frein à l’indexation, car les robots des moteurs de recherche avaient du mal à interpréter les contenus générés dynamiquement. Toutefois, depuis 2018, Google a amélioré sa capacité à exécuter le JavaScript grâce à son moteur de rendu basé sur Chrome (Rendering via Chromium). Il est donc désormais possible de référencer du contenu chargé en JS, à condition de respecter certaines bonnes pratiques :
- Préférer le rendu côté serveur (SSR) ou le pré-rendu statique (static rendering) pour les contenus critiques ;
- S’assurer que le contenu est bien visible dans le code HTML final après exécution du JS ;
- Tester avec l’outil d’inspection d’URL dans la Search Console.
Le JavaScript n’est plus un ennemi du SEO, mais il nécessite une attention technique pour garantir visibilité et indexabilité.
JavaScript Cloaking : Cloaking avancé utilisant JS pour différencier le contenu selon l’agent utilisateur (robot ou humain).
JetOctopus : Outil d’analyse SEO en mode SaaS permettant de crawler massivement les sites web, d’auditer leur structure et de visualiser les problèmes d’indexation, de duplication ou de maillage interne.
JSON-LD : Acronyme de JavaScript Object Notation for Linked Data, JSON-LD est un format de données utilisé pour structurer les informations d’une page web de manière lisible par les moteurs de recherche. C’est aujourd’hui la méthode recommandée par Google pour implémenter des données structurées (rich snippets) comme les avis, les recettes, les produits, les événements, les FAQ, etc.
Un exemple de balisage JSON-LD pour un article de blog :
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "Titre de l'article",
"author": {
"@type": "Person",
"name": "Nom de l’auteur"
},
"datePublished": "2024-04-20"
}
L’intégration se fait via une balise <script type="application/ld+json">
placée dans l’en-tête ou le corps HTML de la page.
Juicy Linking : Terme familier parfois utilisé pour désigner un lien externe (backlink) à fort potentiel SEO, qui transmet un maximum de « jus de lien » (link juice). Un lien est dit « juicy » s’il provient d’une page bien indexée, populaire, sémantiquement proche et en dofollow. Ces liens sont particulièrement recherchés dans les campagnes de netlinking.
K comme Knowledge Graph, KPI et Keyword Strategy
Keyword stuffing : Pratique aujourd’hui largement pénalisée, le keyword stuffing (ou « bourrage de mots-clés ») consistait à répéter de manière excessive un mot-clé dans le contenu d’une page pour tenter d’améliorer artificiellement son positionnement. Cette méthode, populaire dans les années 2000, est désormais repérée par les filtres de Google comme Panda. Un texte lisible, naturel et riche sémantiquement remplace aujourd’hui avantageusement cette technique dépassée.
Keyword Difficulty : Indice mesurant la difficulté à se positionner sur un mot-clé donné. Déterminé par la concurrence et l’autorité des sites en place.
Keyword strategy : Avant même de rédiger du contenu, une bonne stratégie SEO commence par l’identification des bons mots-clés. Cela inclut :
- les mots-clés principaux (courte traîne),
- les mots-clés de longue traîne,
- les variantes sémantiques,
- et les intentions de recherche (informationnelle, transactionnelle, navigationnelle).
Des outils comme SEMrush, Ahrefs, Ubersuggest ou encore Google Keyword Planner (anciennement via Adwords) permettent de les identifier avec précision. Une bonne stratégie intègre aussi la saisonnalité, la difficulté de positionnement et la pertinence métier.
Knowledge Graph : Lancé en mai 2012, le Knowledge Graph est la base de connaissances de Google qui sert à enrichir les résultats de recherche en affichant des informations contextuelles dans un encart à droite de la SERP (Search Engine Results Page). Ce bloc, aussi appelé « panneau de connaissance », peut inclure des photos, dates clés, citations, liens vers des profils sociaux, sources d’autorité, etc. Il est alimenté par des sources fiables comme Wikipedia, Wikidata, la CIA World Factbook ou des sites reconnus.
Le Knowledge Graph est une vitrine de visibilité puissante, notamment pour les marques, les entreprises, les personnalités ou les lieux. Il participe à ce qu’on appelle la **recherche universelle**.
KPI (Key Performance Indicators) : Les KPI sont des indicateurs clés de performance permettant d’analyser les résultats d’une stratégie digitale. En SEO, les KPI les plus courants incluent :
- Le taux de clic (CTR),
- Le taux de rebond,
- Le temps passé sur le site,
- Le nombre de pages vues par session,
- Le positionnement sur les mots-clés ciblés,
- Et le nombre de backlinks obtenus.
Ces indicateurs permettent d’affiner les actions, d’identifier les contenus performants et d’optimiser la stratégie globale. Pour aller plus loin, découvrez notre article complet sur la gestion des KPI dans une démarche webmarketing.
KWFinder : Outil spécialisé dans la recherche de mots-clés longue traîne. Permet de visualiser la difficulté SEO d’un mot-clé et les SERP associées.
L comme Liens !
Landing Page : Appelée aussi « page d’atterrissage », il s’agit de la première page sur laquelle un internaute arrive depuis une recherche ou une campagne (emailing, publicité, etc.). Une bonne landing page doit capter l’attention, répondre à l’intention de recherche et inciter à l’action (conversion, inscription, achat…). Elle doit être bien construite, rapide à charger, claire, et dépourvue de distraction inutile. Soigner sa landing page permet notamment de réduire le taux de rebond et d’augmenter le Quality Score dans Google Ads.
Lazy Loading : Technique d’optimisation qui permet de différer le chargement des images ou contenus jusqu’à ce qu’ils soient visibles à l’écran. Elle améliore la vitesse de chargement perçue.
Lemmatisation : La lemmatisation est une approche linguistique utilisée par les moteurs de recherche pour regrouper différentes formes d’un mot sous une forme canonique, appelée « lemme ». Par exemple : « optimiser », « optimisé », « optimisation » seront tous rattachés à « optimiser ». Cette technique est essentielle pour renforcer la pertinence sémantique d’un texte sans abuser du keyword stuffing. En SEO, bien comprendre la lemmatisation permet de mieux structurer ses contenus autour d’un champ lexical riche.
Lien mort : Un lien est dit « mort » lorsqu’il pointe vers une page qui n’existe plus (généralement une erreur 404). Ces liens peuvent nuire à l’expérience utilisateur et altérer l’autorité perçue d’un site. Un audit régulier de vos liens externes et internes est indispensable pour les repérer et les corriger.
Lien nofollow : Un lien avec l’attribut rel="nofollow"
signale aux moteurs de recherche de ne pas transmettre de link juice vers la page cible. Ce type de lien est souvent utilisé dans les commentaires, forums, ou sur des liens sponsorisés afin d’éviter les abus ou manipulations d’algorithmes.
Lighthouse : Outil open source de Google intégré à Chrome. Il évalue la performance, l’accessibilité, le SEO et les bonnes pratiques d’un site web.
Linkbaiting : Stratégie de netlinking passif. Le linkbaiting repose sur la création de contenu de qualité, original et utile, dans le but d’inciter naturellement d’autres sites à faire des liens. C’est une approche plébiscitée par Google, car elle s’appuie sur la valeur perçue du contenu et non sur l’échange ou l’achat de liens.
Linkbuilding : Contrairement au linkbaiting, le linkbuilding désigne l’ensemble des actions mises en œuvre pour obtenir activement des liens pointant vers un site : échanges de liens, articles invités (guest blogging), partenariats, annuaires de qualité, communiqués de presse, etc. Cette stratégie reste l’un des piliers du SEO off-site, à condition d’être encadrée et diversifiée.
Link Juice : En français, on parle parfois de « jus de lien ». Il s’agit de la valeur transmise d’une page à une autre via un lien hypertexte. Plus une page source est populaire et bien référencée, plus elle transmet un lien de qualité. Le link juice est aussi influencé par le nombre de liens sortants : plus ils sont nombreux, plus la valeur transmise à chaque lien est diluée. D’où l’importance de bien structurer son maillage interne pour canaliser ce « jus » vers les pages stratégiques.
Link Farming : Réseaux de sites reliés entre eux dans le but unique de générer des backlinks.
Link Redirect Trace : Analyse poussée des redirections, de l’indexabilité, de l’attribut canonique et des cookies d’une page. Excellente solution pour les référenceurs techniques.
Log : Les fichiers logs regroupent les traces techniques des connexions à un site Web. L’analyse de logs est une méthode avancée en SEO technique permettant d’identifier la fréquence de passage des bots (Googlebot, Bingbot…), les pages crawlées, les erreurs rencontrées et les ressources ignorées. Elle permet d’ajuster la structure du site, le maillage, et d’optimiser le budget de crawl.
Log File Analysis : Analyse des fichiers journaux d’un serveur pour étudier le comportement des bots (GoogleBot, etc.) sur un site. Permet d’optimiser le crawl.
Logs serveur : Fichiers enregistrant toutes les requêtes faites à un serveur. Leur analyse permet de comprendre le comportement des robots d’indexation et les performances du crawl.
Longue traîne : Concept inventé par Chris Anderson, la longue traîne désigne l’ensemble des mots-clés peu recherchés mais très nombreux. En SEO, cibler la longue traîne permet de capter un trafic qualifié sur des requêtes spécifiques et moins concurrentielles. Par exemple, « chaussures de randonnée imperméables pour femme » plutôt que « chaussures ». Ce type de stratégie peut représenter jusqu’à 80 % du trafic d’un site. En savoir plus dans notre article sur les mots-clés.
M comme Meta
Maillage : En SEO, le maillage interne désigne la manière dont les différentes pages d’un site sont reliées entre elles à l’aide de liens internes. Un bon maillage permet à Google de mieux comprendre la structure du site, d’optimiser le crawl et de transmettre le link juice vers les pages stratégiques. Il est fortement conseillé d’utiliser des ancres de lien optimisées, tout en gardant une logique de navigation fluide pour l’utilisateur.
Maillage interne : Liens placés entre les pages du même site pour favoriser la navigation, la diffusion du PageRank et l’indexation.
Majestic SEO : Outil de référence en matière d’analyse de backlinks. Majestic propose deux indicateurs phares : le Trust Flow (indice de confiance) et le Citation Flow (volume de liens). Il est particulièrement utilisé pour auditer les profils de liens d’un domaine, détecter des sites toxiques, ou encore analyser les opportunités de netlinking. Des alternatives comme Ahrefs ou SEMrush proposent aujourd’hui des fonctionnalités plus complètes, mais Majestic reste incontournable pour une analyse de netlinking pointue.
Marketing Multicanal : Le marketing multicanal est une stratégie qui vise à utiliser plusieurs canaux de communication pour toucher un client (site web, email, réseaux sociaux, téléphone, etc.). En SEO, cela signifie que le contenu, la stratégie de liens ou encore la création de pages doivent prendre en compte une diffusion large, en lien avec les autres leviers du marketing digital (SEA, SMO, emailing…). Le référencement naturel est ainsi complémentaire d’autres approches.
Meta : Le terme « meta » englobe l’ensemble des balises HTML présentes dans la section <head>
d’une page Web. Ces balises donnent des informations aux moteurs de recherche et aux navigateurs. Les plus connues sont <meta name="description">
pour la description et <meta name="robots">
pour le comportement du robot. Bien qu’elles ne soient pas toutes prises en compte dans le positionnement, elles restent essentielles pour améliorer la visibilité et le taux de clic.
Meta description : Il s’agit de la description qui s’affiche sous le titre de la page (balise <title>
) dans les pages de résultats (SERP). Elle n’a pas d’impact direct sur le positionnement, mais influence fortement le CTR. Une meta description bien rédigée doit contenir des mots-clés pertinents et inciter au clic. Elle constitue un véritable argument marketing visible dans les résultats.
Meta Refresh Redirection : Redirection automatique via balise HTML après un court délai. A ne pas utiliser…
MFA (Made for Adsense) : Ces sites ont pour unique objectif de générer des revenus grâce aux clics sur les publicités diffusées par Google Adsense. Ils sont souvent peu qualitatifs, bourrés de mots-clés et organisés autour de requêtes à forte valeur publicitaire. Ces pratiques sont aujourd’hui risquées, car détectées facilement par Google.
MFT (Made for Thune) : Variante francisée de MFA, les MFT sont des sites créés dans une logique opportuniste pour générer du profit (vente d’affiliation, leads, publicité, dropshipping, etc.). Ils sont souvent associés à des pratiques de référencement dites « borderline » ou Grey Hat. Leur intérêt SEO repose sur leur agilité et leur potentiel de monétisation rapide.
Mind Mapping : Le mind mapping ou carte mentale est une technique de visualisation des idées permettant de structurer ses pensées et de concevoir une arborescence logique. Très utilisé en SEO pour organiser les silos sémantiques, planifier un cocon ou encore construire une stratégie de contenu globale cohérente.
Minification : Technique consistant à alléger le code (HTML, CSS, JS) d’un site en supprimant les espaces et commentaires inutiles, pour améliorer le temps de chargement.
Mirror Sites : Clones d’un site original, parfois hébergés sous différents noms de domaine pour capturer du trafic ou créer du maillage. Illégal.
Mobile First : Stratégie d’indexation de Google qui privilégie la version mobile d’un site pour son classement. Un site non optimisé mobile sera pénalisé.
Mobile-friendly : Qualifie un site optimisé pour la lecture sur smartphone ou tablette. C’est un critère de positionnement mobile-first.
Monitorank : Outil français de suivi de positions SEO, multi-moteurs, multi-localisations, avec possibilité de suivre les featured snippets et les résultats enrichis.
Mot-clé : C’est le terme (ou groupe de mots) que tape un internaute dans un moteur de recherche. En SEO, l’optimisation du contenu autour d’un ou plusieurs mots-clés est fondamentale. Il est essentiel d’intégrer le mot-clé principal dans les balises title
, les Hn, les URL, les ancres et dans le corps du texte tout en respectant un équilibre sémantique.
Moteur de recherche : Un moteur de recherche est un système permettant d’effectuer des recherches sur le Web (Google, Bing, Qwant, DuckDuckGo…). Il explore les pages via ses crawlers, les indexe et les classe dans ses résultats (SERP) selon des critères algorithmiques. Le SEO consiste à optimiser ces critères pour gagner en visibilité. Voir notre dossier sur le fonctionnement d’un moteur de recherche.
N comme Netlinking
Negative SEO : Le Negative SEO, parfois abrégé NSEO, désigne l’ensemble des techniques visant à nuire à la réputation d’un site concurrent dans les résultats de recherche. Cela peut passer par l’envoi massif de liens toxiques, la création de duplications de contenu ou encore des tentatives de piratage. Bien que Google minimise publiquement l’impact de ces actions, elles sont bel et bien réelles, et considérées comme illégales dans de nombreux pays (notamment en droit pénal français).
Negative SEO 2.0 : Variante moderne du Negative SEO incluant l’injection de spam sur les backlinks d’un concurrent, faux rapports DMCA, ou duplicate content via IA.
Netlinking : Également appelé « linking externe », le netlinking consiste à obtenir des liens entrants (backlinks) depuis d’autres sites afin d’augmenter l’autorité, la popularité et la visibilité de son propre site. C’est l’un des piliers du référencement naturel (SEO). Une stratégie de netlinking bien pensée combine qualité, thématisation et variété des sources. Attention toutefois aux pratiques abusives : Penguin n’est jamais loin…
Networking : Appliqué au Web, le networking est l’art d’étendre et d’entretenir un réseau de contacts professionnels ou de partenaires dans un but de collaboration ou de développement de visibilité. En SEO, le networking permet de négocier des backlinks via des échanges, des contributions invitées (guest blogging) ou encore des partenariats de contenus. Le relationnel joue ici un rôle essentiel dans les campagnes de netlinking naturelles.
Nofollow : Attribut HTML apposé à un lien (rel="nofollow"
) pour indiquer aux moteurs de recherche de ne pas transmettre de link juice à la page ciblée. Il est souvent utilisé dans les commentaires de blog, forums, réseaux sociaux ou pour signaler des liens sponsorisés. Depuis 2019, Google traite le nofollow comme un « indice » et non plus comme une directive stricte. Il existe également des balises <meta name="robots" content="nofollow">
appliquant la règle à l’ensemble des liens d’une page.
Noindex : Directive utilisée pour demander à Google de ne pas indexer une page. Elle s’implémente via une balise <meta name="robots" content="noindex">
dans le <head>
ou directement via le fichier robots.txt
. Attention : le noindex empêche l’apparition de la page dans les résultats de recherche, mais pas nécessairement son crawl. À manier avec précaution pour les pages peu utiles au SEO (mentions légales, pages de remerciement, etc.).
Nom de domaine : Le nom de domaine (NDD) est l’adresse alphanumérique que l’on saisit dans la barre d’un navigateur pour accéder à un site (ex. : facemweb.com). Il constitue l’identité numérique d’un site. Il existe des domaines de premier niveau (TLD : .com, .fr, .org…) et de second niveau (sous-domaines). Le choix d’un bon nom de domaine est stratégique pour le branding, le SEO (EMD ou non), et l’expérience utilisateur.
Not Provided : Depuis 2013, Google ne fournit plus les requêtes exactes saisies par les internautes dans Analytics, pour des raisons de confidentialité. Ces mots-clés apparaissent sous la mention not provided. Pour contourner cette limitation, on utilise des outils tiers comme Google Search Console, SEMrush ou Ahrefs, ou bien on travaille davantage les statistiques de page plutôt que les mots-clés seuls.
O comme Outil SEO
Optimisation : Il s’agit de l’ensemble des actions menées pour améliorer la visibilité d’un site Web dans les résultats des moteurs de recherche. L’optimisation SEO peut être divisée en plusieurs branches :
- On-page : structure HTML, balisage sémantique, vitesse de chargement, qualité du contenu, responsive design…
- Off-page : netlinking, notoriété, présence sur les réseaux sociaux, gestion de la e-réputation…
- Technique : accessibilité au crawl, configuration du serveur, redirections, compression, HTTPS, erreurs 404, etc.
Optimiser un site, c’est le rendre à la fois plus lisible pour les moteurs… et plus utile pour les humains.
Optimisation On-page : Ensemble des actions effectuées directement sur les pages d’un site pour améliorer leur visibilité (balises, contenus, performances…).
Optimisation off-page : Ensemble des actions SEO réalisées en dehors du site, comme l’obtention de backlinks, les partages sur les réseaux sociaux ou la gestion de l’e-réputation.
Outils SEO : Le marché des outils d’analyse SEO est très vaste et couvre toutes les dimensions du référencement. Certains sont spécialisés dans l’audit de site, d’autres dans le suivi de position, l’analyse de backlinks ou encore l’extraction de mots-clés. Voici quelques-uns des outils les plus utilisés :
- SEMrush / Ahrefs / Ubersuggest : pour l’analyse concurrentielle, les backlinks et les mots-clés
- Screaming Frog / Sitebulb : pour l’audit technique (crawl, erreurs 404, redirections, profondeur des pages…)
- Google Search Console : outil gratuit de Google pour suivre les performances d’un site dans les résultats de recherche
- Google Analytics / Matomo : pour l’analyse du comportement des visiteurs
- Majestic : outil d’analyse de la qualité des liens (Trust Flow, Citation Flow, Topical Trust Flow)
- PageSpeed Insights / GTmetrix : pour la vitesse de chargement
- Answer The Public / AlsoAsked : pour explorer les intentions de recherche et enrichir ses contenus
Obfuscation de lien : Technique consistant à masquer un lien aux yeux des moteurs de recherche tout en le laissant visible pour l’internaute. Utilisé notamment pour éviter de diluer le link juice ou pour manipuler le maillage interne. Google déconseille cette méthode, mais elle est encore répandue dans certaines stratégies avancées.
OnCrawl : Plateforme d’audit SEO technique destinée aux professionnels. Permet l’analyse des logs, du crawl, de la profondeur des pages, et la détection d’anomalies d’indexation. Idéal pour les sites de grande envergure.
Open Graph : Protocole mis en place par Facebook pour améliorer l’affichage des liens partagés sur les réseaux sociaux. Il s’agit de balises meta spécifiques à insérer dans le <head>
d’une page. Exemple : <meta property="og:title" content="Titre de votre page" />
. Bien configuré, il peut booster la viralité de vos contenus.
Orphan Pages : Pages d’un site qui ne reçoivent aucun lien interne. Elles sont difficiles à découvrir pour les moteurs et risquent de ne pas être indexées.
Orphelines (pages) : En français cette fois, ce sont les pages d’un site qui ne reçoivent aucun lien interne. Elles sont donc difficiles à trouver par les moteurs de recherche et peuvent rester non indexées. Un bon audit SEO détecte ces pages afin de les réintégrer dans l’arborescence.
Oseox KEYWORDS : Outil de suivi de positionnement SEO développé par Oseox. Il permet de surveiller les évolutions des mots-clés sur Google, d’analyser les performances par page ou par thématique, et d’exporter des rapports personnalisés pour les clients ou équipes internes.
Outbound links : Ce sont les liens sortants, c’est-à-dire les liens présents sur votre site qui pointent vers d’autres sites. Bien choisis, ils renforcent la crédibilité de votre page aux yeux de Google (liens vers des sources fiables, universitaires, institutionnelles, etc.).
Outils d’indexation rapide : Services ou extensions permettant de forcer l’exploration et l’indexation de pages par les moteurs de recherche. Utiles après une mise à jour ou la publication d’un nouveau contenu. Exemples : Google Search Console (via l’outil d’inspection d’URL), IndexNow (supporté par Bing et Yandex), ou des API comme celle de Instant Indexing pour WordPress.
P comme Panda, Penguin et PageRank
PageRank : Système de notation inventé par les fondateurs de Google (Larry Page et Sergey Brin) à la fin des années 1990. Il repose sur l’idée que chaque lien pointant vers une page représente un vote, et plus une page reçoit de votes de qualité, plus elle mérite d’être bien positionnée dans les résultats. Bien que la célèbre toolbar PageRank n’existe plus depuis 2016, ce concept reste fondamental : il a posé les bases de l’analyse de popularité via les liens, encore utilisée aujourd’hui, notamment via des algorithmes plus sophistiqués (TrustRank, Topical Rank, etc.).
PageSpeed Insights : Outil officiel de Google pour mesurer la vitesse de chargement d’une page Web sur mobile et desktop. Il fournit des recommandations pour améliorer les performances techniques et l’expérience utilisateur.
Pages zombies : En français, pages sans intérêt SEO, peu consultées ou non positionnées (voir également Zombie page). Elles peuvent nuire à la qualité globale d’un site selon Google.
Panda : Algorithme lancé officiellement par Google en février 2011. Il vise à pénaliser les sites au contenu de faible qualité : contenu dupliqué, trop court, généré automatiquement, ou sans valeur ajoutée pour l’utilisateur. Panda fonctionne aujourd’hui de manière intégrée à l’algorithme principal et non comme un filtre indépendant. Un bon travail éditorial reste la meilleure défense face à Panda.
Parasite SEO : Exploitation d’un site ou domaine externe ayant une forte autorité (souvent à son insu) pour héberger du contenu optimisé et ranker rapidement (BH).
Penguin : Autre mise à jour emblématique de Google, déployée en avril 2012. Penguin s’attaque cette fois aux pratiques abusives en matière de netlinking : liens non naturels, backlinks achetés en masse, ancres sur-optimisées, spam de commentaires… Depuis 2016, Penguin agit en temps réel et fait partie de l’algorithme principal. Pour éviter ses foudres, mieux vaut adopter une stratégie de liens qualitative et diversifiée.
PBN : Acronyme de Private Blog Network, ou réseau privé de blogs. Il s’agit d’une méthode « grey hat » ou « black hat » de netlinking consistant à créer ou racheter des domaines expirés pour générer des backlinks vers un site principal. L’efficacité du PBN est réelle mais son usage comporte des risques si le réseau est mal dissimulé. Lire aussi notre guide sur les réseaux de blogs.
Pénalité : Lorsqu’un site enfreint les directives de Google (qualité du contenu, pratiques de linking douteuses, cloaking, etc.), il peut subir une pénalité. Celle-ci peut être manuelle (notifiée dans la Search Console) ou algorithmique (appliquée automatiquement). Conséquence : chute de trafic, d’indexation, voire disparition des résultats de recherche. Les pénalités nécessitent souvent une intervention technique et éditoriale approfondie pour être levées.
PHP : Langage serveur libre très répandu sur le Web. PHP est le socle de la majorité des CMS (WordPress, Joomla, Drupal…). Il permet la génération dynamique des pages HTML. Dans le contexte SEO, PHP est parfois utilisé pour automatiser la création de contenu ou gérer des redirections.
Pigeon : Mise à jour de l’algorithme de Google introduite en 2014, visant à améliorer la pertinence des résultats locaux. Elle renforce la corrélation entre les requêtes géolocalisées (ex. « coiffeur à Lille ») et la base Google My Business. Elle a considérablement modifié les résultats locaux, en s’appuyant notamment sur la distance et la précision des données.
Ping : Mécanisme utilisé pour notifier les moteurs de recherche ou des services tiers qu’un contenu vient d’être mis à jour ou publié. Permet d’accélérer l’indexation d’un article ou d’une page web.
Pingdom Tools : Permet de tester la vitesse de chargement de son site depuis plusieurs localisations dans le monde. Offre des rapports visuels simples à interpréter.
Plan de site (sitemap.xml) : Fichier listant toutes les URLs importantes d’un site pour faciliter l’indexation par les moteurs de recherche. Le plan de site peut être également HTML.
Pogo Sticking : Comportement d’un internaute qui clique sur un résultat de recherche, puis revient immédiatement aux SERPs. En SEO Black Hat, il peut être simulé à l’aide de bots pour faire croire à Google qu’un site concurrent ne satisfait pas les utilisateurs.
Pogo Sticking Simulation : Générer des retours rapides vers les SERPs après un clic sur un site concurrent (via bots ou crowd SEO) pour signaler un mauvais résultat à Google. Illégal.
Popularité : L’une des trois grandes composantes du SEO (avec la technique et le contenu). Elle se mesure principalement par le nombre, la qualité et la diversité des liens pointant vers un site. Un site populaire est souvent mieux positionné dans les SERPs.
Position moyenne : Indicateur fourni par Google Search Console, représentant la position moyenne d’une page ou d’un mot-clé dans les résultats de recherche.
Positionnement : Il s’agit du classement d’une page sur un mot-clé donné dans les résultats des moteurs de recherche. Le but d’un référenceur est d’obtenir le meilleur positionnement possible — de préférence dans le top 3 — sur un maximum de requêtes pertinentes.
Position Tracking : Suivi quotidien ou hebdomadaire du positionnement d’un site sur un ensemble de mots-clés définis. Fonction clé de nombreux outils SEO.
Position zéro : Depuis 2014, Google affiche parfois un résultat en haut de la page, au-dessus du premier lien naturel. C’est le Featured Snippet : une définition, un tableau, une liste, ou une réponse courte à une question. Le site ainsi mis en avant bénéficie d’une visibilité accrue. Voir notre article sur la position zéro.
Pousser : En SEO, « pousser » signifie mettre en avant une page en lui transmettant du link juice. Cela passe par des liens internes (maillage) ou externes (backlinks). On pousse une page stratégique (landing page, catégorie, fiche produit…) pour améliorer son positionnement.
Première position : C’est l’objectif ultime pour la plupart des pages stratégiques : être le premier lien cliquable dans Google. La position 1 génère en moyenne 28 à 35 % des clics, contre 10 à 15 % pour la position 2. Pour l’atteindre, un travail simultané sur le contenu, la technique, les liens et l’intention de recherche est indispensable. Plusieurs techniques de référencement Internet permettent de viser cette place tant convoitée.
Private Link Marketplaces : Marchés fermés où se vendent et s’achètent des liens puissants, souvent via des PBN ou des sites expirés reconditionnés.
Private WhoIs : Masquage des informations d’un nom de domaine pour éviter de relier un réseau de sites entre eux, souvent utilisé dans les PBN (Private Blog Networks). Possible ou pas selon les réglementations.
Profondeur de page : Nombre de clics nécessaires pour atteindre une page depuis la page d’accueil. Plus une page est profonde, moins elle est explorée par Googlebot.
Protocole HTTP/2 : Évolution du protocole HTTP qui permet un chargement plus rapide des pages. Supporté par les navigateurs modernes et recommandé pour le SEO.
Q comme Qwant, Query et Quality
Qwant : Lancé en 2013, Qwant est un moteur de recherche français qui mise sur le respect de la vie privée de ses utilisateurs. Contrairement à Google, Qwant ne trace pas les recherches et ne propose pas de publicité ciblée à partir des données personnelles. Il s’adresse donc à un public soucieux de confidentialité. Il utilise ses propres index combinés à ceux de Bing et de Wikipedia, notamment pour son encart “Qnowledge Graph”. Bien que sa part de marché soit faible, il reste une alternative éthique en Europe.
Quality Score : Indicateur propre à Google Ads (ex-Adwords), le Quality Score est une note sur 10 attribuée à vos annonces publicitaires. Elle est calculée à partir de trois critères principaux : le taux de clic attendu (CTR), la pertinence de l’annonce par rapport au mot-clé, et l’expérience utilisateur sur la page de destination (landing page). Un bon Quality Score permet de réduire le coût par clic (CPC) et d’améliorer la diffusion de vos annonces.
Query : Terme anglais désignant la requête saisie par un internaute dans un moteur de recherche. Chaque query exprime une intention : informationnelle (chercher une réponse), navigationnelle (chercher un site) ou transactionnelle (acheter ou s’inscrire). Bien analyser les requêtes des utilisateurs permet de mieux cibler les contenus et les optimiser en SEO.
Query Deserves Freshness (QDF) : C’est un critère de Google qui favorise, pour certaines recherches, les contenus les plus récents. Par exemple : une actualité, un événement sportif ou une évolution légale. QDF impacte directement la visibilité dans les SERPs, notamment via la section “Top Stories”. Cela pousse les éditeurs à produire régulièrement du contenu à jour.
Quality Rater Guidelines : Guide rédigé par Google à destination de ses évaluateurs humains (les Quality Raters). Il décrit comment juger la qualité d’un site selon divers critères : expertise, autorité, fiabilité (E-E-A-T), transparence, qualité du contenu, UX, etc. Même s’il n’est pas un facteur algorithmique direct, ce guide influence le développement des futurs algorithmes.
Quora : Plateforme de questions/réponses utilisée en SEO pour faire de la veille, insérer des liens (avec parcimonie), améliorer l’autorité sur un sujet ou surveiller les tendances de recherche. Répondre sur Quora peut aussi améliorer son e-réputation.
Quick Win : Expression utilisée en stratégie SEO pour désigner des optimisations simples, rapides à mettre en place, mais pouvant générer un impact significatif. Exemples : corriger des balises Hn, optimiser des images trop lourdes, retravailler des titles, ou encore rediriger des pages 404 stratégiques.
R comme Robot, Rank, Référencement
Racinisation : En linguistique, la racinisation est un processus consistant à ramener un mot à sa racine commune. En SEO, cette technique permet d’optimiser les contenus autour de familles sémantiques proches. Elle est utilisée dans les algorithmes des moteurs pour détecter les variantes lexicales comme « manger », « mangé », « mangeable », etc. Elle renforce la pertinence sémantique des pages.
Ranker : Terme anglophone emprunté par les référenceurs pour désigner le fait qu’une page se positionne bien dans les résultats de recherche. On dira qu’une page “ranke” sur un mot-clé donné. Par extension, cela peut aussi faire référence à sa capacité à convertir des visiteurs en prospects ou clients.
Rank Math : Plugin SEO WordPress concurrent de Yoast, apprécié pour sa légèreté, ses fonctions avancées (données structurées, redirections, suggestions d’optimisation) et son interface intuitive.
Ranxplorer : Outil d’analyse SEO et SEA français. Il permet d’étudier le positionnement d’un site dans les SERPs, de suivre les mots-clés, d’analyser la concurrence et d’extraire les requêtes longue traîne. Utile pour affiner sa stratégie de contenu.
Redirection : Action consistant à renvoyer automatiquement un utilisateur ou un robot d’une URL vers une autre. La redirection 301 (permanente) est la plus utilisée pour conserver le bénéfice SEO d’une page supprimée ou déplacée. La redirection 302 (temporaire) indique un changement non définitif. Mal gérées, ces redirections peuvent générer des erreurs ou du duplicate content.
Redirection 301 : Redirection permanente d’une URL vers une autre. Elle conserve en grande partie la popularité SEO de l’ancienne URL.
Redirection 302 : Redirection temporaire indiquant aux moteurs que l’URL de destination peut changer. Elle ne transmet pas toujours la popularité SEO.
Redirect Path : Extension développée par Ayima. Elle permet de voir immédiatement les codes de redirection HTTP (301, 302, 404…) dans la barre d’outils du navigateur. Très utile pour comprendre le comportement d’une page.
Référencement on-page : Ensemble des optimisations internes d’une page : balisage HTML (Hn, title, meta), contenu éditorial, images, vitesse de chargement, structure des URLs, données structurées, accessibilité… C’est un levier fondamental dans toute stratégie SEO. Voir aussi notre article sur l’optimisation des images.
Référencement off-page : Il s’agit de toutes les actions menées à l’extérieur du site pour améliorer son autorité et sa popularité. Cela inclut la stratégie de backlinks, les réseaux sociaux, les citations locales, le contenu invité (guest blogging), etc.
Référenceur : Professionnel chargé de la mise en œuvre de la stratégie SEO. Il peut être consultant indépendant, salarié en agence ou en entreprise. Il maîtrise les techniques d’audit, d’optimisation technique, sémantique et netlinking.
Requête : Mot ou groupe de mots saisi par un utilisateur dans un moteur de recherche. Chaque requête cache une intention (informationnelle, transactionnelle ou navigationnelle) et constitue la base du ciblage SEO. Les outils d’analyse sémantique comme ceux de Google, Semrush ou AnswerThePublic aident à les identifier.
Réseau privé (PBN) : Réseau de blogs ou de sites contrôlés par un référenceur et utilisés pour faire du netlinking vers un site principal (« money site »). Cette technique borderline peut être puissante déjà abordée à la lettre B est aussi théoriquement risquée.
Réseau public : Désigne les sites et blogs tiers, dont on ne possède pas la gestion directe, mais sur lesquels on peut publier via des contributions, échanges ou partenariats. Cela inclut les articles sponsorisés, les forums, ou les plateformes collaboratives.
Responsive : Qualifie un site Web dont le design est adaptatif : il s’ajuste automatiquement à la taille de l’écran (mobile, tablette, desktop). Google favorise désormais les sites responsive en raison de la priorité mobile-first dans son indexation.
Responsive design : Conception d’un site pour un affichage optimal sur tous les appareils (mobile, tablette, desktop). Google y est très sensible.
Referrer : Il s’agit de la page d’origine à partir de laquelle un visiteur a accédé à votre site. Le referrer est utilisé pour identifier les sources de trafic (sites, moteurs de recherche, campagnes). On le retrouve notamment dans les rapports d’Analytics.
Regex (Expressions régulières) : Syntaxe utilisée pour rechercher ou remplacer des motifs de texte. Très utile pour filtrer ou analyser les URL dans les outils SEO comme Screaming Frog ou GSC.
Reverse Proxy : Serveur intermédiaire entre l’utilisateur et votre site. Il peut améliorer la sécurité, gérer le cache ou répartir la charge. Varnish ou NGINX sont souvent utilisés à cet effet.
Rich Results Test : Outil de Google permettant de tester si une page est éligible à l’affichage de résultats enrichis (avis, recettes, événements…) dans les SERPs. Il remplace l’ancien outil de test des données structurées.
Rich Snippet : Affichage enrichi dans les résultats de recherche (SERP) qui inclut des données supplémentaires : notes, avis, événements, prix, etc. Les rich snippets sont générés grâce aux données structurées (schema.org) intégrées dans le code HTML.
RM Tech : Outil d’audit SEO développé par My Ranking Metrics. Il analyse en profondeur les aspects techniques et éditoriaux d’un site, identifie les pages zombies et évalue la qualité via l’indice QualityRisk. Il fournit des recommandations priorisées pour améliorer le référencement naturel.
Robots.txt : Fichier texte situé à la racine d’un site, destiné aux crawlers des moteurs de recherche. Il indique les répertoires ou pages à exclure de l’exploration. Il ne garantit pas une non-indexation (pour cela, utiliser la meta « noindex »). Voir notre guide sur la configuration du fichier robots.txt.
S comme SEO
Sape Links : Ancien réseau russe de vente de liens (très utilisé dans le Black Hat).
Schema.org : Standard de balisage sémantique utilisé pour structurer les données sur les pages web. Il permet d’améliorer l’affichage des résultats dans les moteurs de recherche via des extraits enrichis (rich snippets).
Scrapebox : Outil d’automatisation utilisé pour scraper des URLs, spammer des commentaires de blog ou analyser les SERP à grande échelle. Très utilisé dans le Black Hat SEO.
Scraping : Technique automatisée permettant d’extraire massivement du contenu ou des données depuis un site web. Elle est notamment utilisée pour la veille concurrentielle, mais peut aussi relever du Black Hat SEO lorsqu’elle est utilisée pour dupliquer illégalement du contenu.
Screaming Frog : Outil d’audit SEO incontournable permettant de crawler un site web comme le ferait un moteur de recherche. Il est utilisé pour identifier les erreurs techniques, les balises manquantes, les liens cassés, le contenu dupliqué, etc. Voir notre page dédiée à Screaming Frog.
SEA (Search Engine Advertising) : Référencement payant, notamment via Google Ads. Il consiste à acheter des espaces publicitaires dans les pages de résultats des moteurs de recherche.
Search Intent : Expression de langue anglaise qui correspond à l’intention de recherche de l’internaute (informationnelle, navigationnelle, transactionnelle, commerciale). Comprendre cette intention est essentiel pour créer un contenu pertinent et bien positionné.
SEM (Search Engine Marketing) : Stratégie marketing globale combinant SEO (référencement naturel), SEA (référencement payant), et SMO (référencement social). Il s’agit d’optimiser tous les leviers de visibilité sur le Web.
SEMrush : SEMrush est l’un des outils d’analyse SEO les plus puissants et complets du marché, utilisé aussi bien par les consultants indépendants que par les agences de marketing digital. Il permet d’auditer un site Web, de suivre le positionnement de ses mots-clés, d’analyser les stratégies SEO et SEA de ses concurrents, d’identifier les backlinks, ou encore de détecter des opportunités de contenu et de netlinking. Déployé à l’origine en Russie dans les années 2000, SEMrush s’est rapidement imposé comme un acteur incontournable du référencement naturel et payant. Il offre une multitude de fonctionnalités réparties dans plusieurs modules : audit technique, recherche organique, analyse concurrentielle, suivi du positionnement, outil de création de contenu optimisé, suggestions de mots-clés, et bien plus encore. Parmi ses fonctions phares, on trouve également l’analyse des backlinks, la détection de toxicité des liens entrants (utile pour éviter les pénalités Penguin), l’examen des performances sur les SERP via le suivi des fonctionnalités enrichies (featured snippets, People Also Ask…), et un assistant de rédaction SEO basé sur l’optimisation sémantique. SEMrush est devenu un outil incontournable pour rester compétitif, comprendre son environnement de recherche, surveiller les performances de son site au fil des mises à jour Google, et bâtir des stratégies de contenu efficaces et durables. Il est accessible sur abonnement, avec des plans adaptés aux freelances, PME et grandes entreprises.
SEO (Search Engine Optimization) : Optimisation pour les moteurs de recherche. Cela englobe toutes les techniques destinées à améliorer la visibilité organique d’un site dans les résultats de recherche. Voir notre définition du SEO.
Seobserver : Outil d’analyse de backlinks et de positions dans les SERPs. Très utilisé pour surveiller les stratégies de netlinking des concurrents et détecter les mouvements SEO sur des mots-clés cibles.
SEO Hero : Analyse sémantique autour d’un mot-clé pour comparer le contenu d’une page à ceux des concurrents les mieux classés.
SEO Minion : Extension Chrome gratuite très pratique pour analyser les balises Hn, les liens, les balises ALT, faire du surlignage de nofollow et visualiser les redirections. Indispensable pour les audits rapides.
SEOptimer : Outil d’audit SEO simplifié en ligne. Il offre un rapport clair pour les débutants, utile pour évaluer rapidement les bases du référencement d’un site.
SEOQuantum : Plateforme française spécialisée dans l’analyse sémantique SEO. Elle aide à optimiser les contenus selon les intentions de recherche et à créer des cocons sémantiques performants.
SEO vocal : Ensemble des techniques d’optimisation visant à répondre aux requêtes effectuées par commande vocale via des assistants comme Google Assistant, Alexa ou Siri. Les réponses doivent être claires, concises et orientées vers les featured snippets.
Serveur : Ordinateur ou système distant sur lequel est hébergé un site Internet. Les performances du serveur (vitesse, stabilité) influencent directement l’expérience utilisateur et donc le SEO.
Serveur mutualisé : Type d’hébergement où plusieurs sites partagent les ressources d’un même serveur. Moins coûteux, mais moins performant qu’un serveur dédié ou VPS.
Serveur dédié : Un serveur dont toutes les ressources sont réservées à un seul site. Idéal pour les sites à fort trafic ou nécessitant une configuration spécifique pour le SEO.
SERP (Search Engine Results Page) : Pages de résultats affichées par un moteur de recherche suite à une requête utilisateur. Elles contiennent à la fois des résultats naturels, des annonces payantes, la carte Google Maps, des liens vers des images, vidéos, knowledge panels, etc.
Serprobot : Outil de suivi de positionnement de vos mots-clés sur Google. Simple et rapide, il est adapté aux freelances et petites structures.
Serveur : Ordinateur ou système informatique qui héberge les fichiers de votre site internet et les rend accessibles en ligne. Il peut être mutualisé, dédié ou en cloud selon les besoins.
Serveur FTP : Serveur utilisant le protocole FTP pour le transfert de fichiers entre votre ordinateur local et votre hébergement web.
Silo : Méthode d’organisation sémantique du contenu d’un site. Chaque silo thématique regroupe un ensemble de pages cohérentes liées par un maillage interne structuré, dans une logique descendante.
Sitebulb : Logiciel de crawl très visuel et pédagogique. Parfait pour réaliser des audits SEO complets, notamment sur les balises, l’arborescence ou les problèmes techniques.
Sitelink : Liens supplémentaires qui peuvent apparaître sous un résultat de recherche principal, dirigés vers les pages internes d’un site. Générés automatiquement par Google pour les sites bien structurés.
Sitemap : Fichier XML listant toutes les URLs importantes d’un site à soumettre aux moteurs de recherche pour faciliter l’exploration et l’indexation. Voir notre article sur le fichier sitemap XML ou encore celui pour faire un sitemap WordPress.
SMO (Social Media Optimization) : Ensemble des techniques destinées à optimiser la visibilité d’un site via les réseaux sociaux (partages, mentions, interactions, etc.). Il s’inscrit comme complément au SEO dans une stratégie SEM globale.
Snap : Terme désignant l’action de capturer automatiquement un domaine expiré dès sa libération. Utilisé notamment via des outils de backorder pour obtenir un nom de domaine convoité.
Snippets dynamiques : Résultats enrichis générés automatiquement par Google à partir du contenu d’une page, sans balisage spécifique.
Spam : Terme général pour désigner tout contenu indésirable ou abusif. Un site peut être considéré comme spam par Google s’il multiplie les pratiques trompeuses ou contraires à ses guidelines.
Spamco : Technique de spam de commentaires sur des blogs (comment spam) dans le but de générer des backlinks. Pratique associée aux stratégies de backlink blast.
Spamdexing : Ensemble de techniques visant à manipuler les résultats de recherche, notamment via des fermes de liens, keyword stuffing, ou cloaking.
Spam referral : Appelé aussi referrer spam, il consiste à injecter de fausses références dans Google Analytics pour inciter les webmasters à visiter le site spammeur.
Spider : Synonyme de crawler ou robot d’exploration. Il s’agit du programme utilisé par les moteurs pour indexer les pages web.
Splog : Contraction de Spam + Blog. Ce sont des blogs créés uniquement pour générer du contenu artificiel en vue d’alimenter d’autres sites (souvent des money sites dans des réseaux PBN).
Spot : Terme souvent employé pour désigner un site sur lequel on peut potentiellement poser un lien, que ce soit par échange, achat ou publication de contenu.
SSH (Secure Shell) : Protocole sécurisé de communication à distance. Il est couramment utilisé pour administrer un serveur via des lignes de commande sécurisées.
Structure de site : Organisation hiérarchique et logique des contenus d’un site web. Une bonne structure favorise l’expérience utilisateur, facilite le crawl des robots, et renforce le référencement des pages profondes.
Structured Data (données structurées) : Type de données intégrées dans le code source d’une page pour fournir aux moteurs de recherche des informations précises (produit, avis, événement, etc.), selon la norme Schema.org.
SXO : Acronyme de Search eXperience Optimization, c’est l’évolution naturelle du SEO. Le SXO combine référencement naturel (SEO) et expérience utilisateur (UX) pour optimiser non seulement la visibilité sur Google, mais aussi la conversion. Objectif : attirer, convaincre, fidéliser.
Synergie SEO/UX : Terme récent désignant l’interaction entre les stratégies SEO et l’expérience utilisateur (UX). Un bon SEO ne suffit plus sans une navigation fluide, un temps de chargement réduit, et un parcours utilisateur bien pensé.
T comme Trafic
Tag : Petit extrait de code (souvent en JavaScript) intégré dans une page web, généralement dans le but de suivre un événement (clic sur un bouton, formulaire soumis, conversion, etc.). On les utilise notamment via Google Tag Manager pour gérer plus facilement le tracking sans devoir toucher au code source.
Taux de rebond : Indicateur clé dans Google Analytics. Il représente le pourcentage de visiteurs qui quittent votre site après avoir vu une seule page, sans aucune interaction supplémentaire. Un taux de rebond élevé peut révéler un problème d’ergonomie, de pertinence du contenu ou de temps de chargement. Il est expliqué dans notre article sur les notions essentielles de Google Analytics.
Temps de réponse serveur : Délai entre une requête utilisateur et la réponse du serveur. Un temps trop long nuit à l’expérience utilisateur et au référencement.
Texte alternatif (ALT) : Description d’une image via l’attribut ALT ; utile pour l’accessibilité et le référencement des images.
Title : Balise HTML placée dans le <head>
du document, elle définit le titre d’une page web tel qu’il apparaît dans l’onglet du navigateur et dans les résultats des moteurs de recherche (SERP). Élément majeur en SEO on-page. Voir notre article sur la définition de la balise title.
Titre : À ne pas confondre avec la balise Title, les titres désignent ici les balises Hn (H1 à H6), visibles dans le contenu et organisant la hiérarchie sémantique de la page. Le H1 doit être unique et représenter le sujet principal du contenu.
Trafic : Représente le volume global de visiteurs sur un site web, qu’ils proviennent de la recherche organique (SEO), payante (SEA), des réseaux sociaux, du trafic direct ou de campagnes emailing. Il est mesuré sur une période donnée. Le trafic est souvent scindé entre plusieurs sources pour analyser leur efficacité respective.
Trafic organique : Partie du trafic total provenant exclusivement des résultats naturels des moteurs de recherche, sans que l’utilisateur ait cliqué sur une annonce payante. Il est le fruit direct du travail de référencement naturel (SEO).
Trafic direct : Trafic généré par les internautes qui saisissent directement l’URL du site dans leur navigateur ou utilisent un favori. Ce type de trafic est souvent associé à la notoriété de la marque.
Trafic referral : Visiteurs qui arrivent sur votre site après avoir cliqué sur un lien externe depuis un autre site (hors moteur de recherche).
Trust Rank : Indice de confiance attribué à un site web par un moteur de recherche, basé sur des critères de fiabilité, de réputation et de liens entrants provenant de sources jugées elles-mêmes fiables. Cet indice, bien que non officiel, est proche du « Trust Flow » proposé par Majestic SEO.
Test A/B : Méthode d’optimisation consistant à comparer deux versions (ou plus) d’un élément (landing page, bouton, email…) pour déterminer laquelle génère le meilleur taux de conversion ou d’interaction. Voir la section sur l’A/B testing.
Temps de chargement : Délai nécessaire pour afficher entièrement une page web. C’est un critère de l’expérience utilisateur (UX) mais également un facteur de positionnement SEO pris en compte par Google.
Tagline : Phrase d’accroche ou slogan qui accompagne le logo ou le nom d’un site web. Ce texte, souvent affiché dans le header, a un rôle marketing mais aussi un impact SEO s’il est bien formulé et indexé.
Texte alternatif (ou balise ALT) : Voir définition à la lettre A. Utilisé pour décrire une image pour les malvoyants et les moteurs de recherche. Peut améliorer le référencement dans Google Images.
Tracking : Ensemble des méthodes techniques utilisées pour suivre et mesurer le comportement des visiteurs sur un site. Cela inclut les tags, les cookies, les pixels de tracking, et les solutions comme Google Analytics, Matomo, etc.
Typosquatting : Création de noms de domaines proches d’un domaine existant (avec fautes de frappe) pour capter une partie du trafic. Illégal.
U comme UTF-8
Ubersuggest : Outil de recherche de mots-clés et d’audit SEO lancé par Neil Patel. Il propose des suggestions de mots-clés, des analyses de concurrence, d’idées de contenu et de backlinks, accessible en version gratuite et premium.
Update Google : Les mises à jour de l’algorithme de Google, appelées « Updates », modifient régulièrement les règles du jeu en matière de référencement naturel. Certaines updates sont majeures, comme « Panda », « Penguin » ou « Fred » (déployée en mars 2017), et peuvent impacter le positionnement de millions de pages du jour au lendemain. Il est important de suivre ces changements, car ils reflètent l’évolution des critères de qualité selon Google.
Uptime : Pourcentage de disponibilité du serveur sur une période donnée. Un site souvent inaccessible peut perdre des positions dans les SERP.
URL : Abréviation de Uniform Resource Locator, une URL est l’adresse complète d’une page web, lisible par l’humain et le navigateur. Elle doit être bien structurée (courte, descriptive, sans accents, sans stop words inutiles) pour un meilleur référencement. Par exemple, une URL comme https://mon-site.fr/seo/optimisation-images
est préférable à https://mon-site.fr/article?id=1289
.
URL canonique : L’élément rel="canonical"
est une balise placée dans le <head>
d’une page HTML. Elle permet d’indiquer aux moteurs de recherche la version officielle (ou « canonique ») d’un contenu pouvant exister à plusieurs endroits (cas du contenu dupliqué, produits avec filtres ou pagination…). Pour en savoir plus, lire notre article sur la balise canonique.
User-Agent : Le User-Agent est une chaîne de texte envoyée par un navigateur ou un robot (comme GoogleBot) au serveur pour s’identifier. Elle permet au serveur d’adapter sa réponse (format d’affichage, restrictions d’accès…). Un exemple de User-Agent : Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36
. En SEO, cela permet aussi d’analyser quels bots crawlaient votre site (Google, Bing, Yandex, etc.).
UTF-8 : UTF-8 est un système d’encodage des caractères très largement adopté sur le web. Il permet d’afficher correctement tous les caractères, y compris les accents ou les symboles d’autres langues. Il est essentiel de déclarer cet encodage dans le <head>
de vos pages HTML via la ligne suivante : <meta charset="UTF-8">
Cela garantit une lecture correcte du texte par les navigateurs et évite les caractères « buggés » (comme les �).
UX (User Experience) : L’expérience utilisateur est un facteur devenu central dans le référencement. Elle désigne la qualité de la navigation d’un internaute sur un site web : vitesse de chargement, lisibilité, ergonomie mobile, structure logique du contenu, accessibilité, etc. Google mesure de plus en plus cette expérience via des signaux comportementaux (taux de rebond, temps passé sur la page, Core Web Vitals…). En SEO moderne, l’UX ne doit jamais être négligée. Pour en savoir plus, consultez notre guide sur l’expérience utilisateur et le SEO.
UX Writing : Discipline consistant à rédiger des contenus courts, clairs et utiles dans les interfaces (boutons, menus, messages d’erreur) pour améliorer l’expérience utilisateur.
Uptime : Pourcentage de disponibilité d’un site web sur une période donnée. Un bon hébergeur garantit généralement 99,9 % d’uptime. Des coupures trop fréquentes nuisent à la confiance des utilisateurs et peuvent également affecter le crawl et le référencement.
Uniformité des URLs : Il est important en référencement de choisir un format unique (avec ou sans www, avec ou sans slash final, etc.) et de rediriger les versions secondaires vers la principale via une redirection 301. Cela permet de consolider l’autorité SEO sur une seule version et d’éviter le duplicate content.
Usability : En français, l’utilisabilité désigne la facilité avec laquelle un visiteur peut utiliser un site. L’ergonomie, la clarté des menus, la rapidité d’accès à l’information sont des éléments qui influencent positivement l’expérience utilisateur (UX) et indirectement votre SEO.
V comme Veille indispensable
Validation DNS : Étape obligatoire pour prouver la propriété d’un site web dans certains outils (Google Search Console, certificats SSL, etc.). Une bonne configuration DNS est aussi nécessaire pour garantir la stabilité et la sécurité du domaine.
Validation W3C : Le W3C (World Wide Web Consortium) propose un outil pour vérifier que votre site respecte les standards du web. Une bonne validation W3C n’est pas directement un critère SEO, mais un code propre favorise l’indexation et évite des bugs d’affichage selon les navigateurs ou appareils.
Veille SEO : Si vous vous intéressez sérieusement au référencement naturel, la veille SEO est incontournable. Elle consiste à surveiller en continu l’évolution des algorithmes des moteurs de recherche (notamment Google), les nouvelles pratiques des experts, les outils émergents et les tendances du web. Cela permet d’adapter vos méthodes, de détecter des opportunités avant vos concurrents, ou d’éviter des erreurs pénalisantes. Des sites comme Search Engine Journal, Abondance, Moz ou encore le blog de Google Search Central sont de bonnes sources.
Visibilité : En SEO, la visibilité désigne la capacité de vos pages à être vues et cliquées dans les résultats des moteurs de recherche. Ce concept dépasse le simple positionnement : une page peut être bien classée, mais peu visible si son snippet est peu attractif. La visibilité est renforcée grâce à des éléments comme les balises <title>
, meta description
, les Rich Snippets, les Sitelinks ou encore le Knowledge Graph, qui donnent plus de place visuelle à votre lien dans les SERPs.
Vitesse : Il s’agit ici du temps de chargement de votre site web. Un site rapide améliore non seulement l’expérience utilisateur (UX), mais aussi le référencement. Google prend en compte la performance d’un site via des indicateurs comme les Core Web Vitals (LCP, FID, CLS). Un site lent peut provoquer une augmentation du taux de rebond, une baisse du temps passé sur la page, et donc une perte de trafic SEO. Des outils comme PageSpeed Insights, GTmetrix ou WebPageTest permettent d’analyser et d’optimiser ces performances.
Vitesse de chargement : Temps mis par une page pour s’afficher. Un site rapide améliore l’UX et le positionnement SEO.
Viewport : En responsive design, la balise <meta name="viewport">
permet d’adapter le contenu à la taille de l’écran. Elle est essentielle pour le SEO mobile, car un site non responsive risque d’être mal classé sur les résultats mobiles.
Volatilité des SERPs : Elle désigne les variations parfois brutales des résultats de recherche, souvent causées par des mises à jour de l’algorithme de Google. Certains outils comme Semrush Sensor, Algoroo ou Mozcast permettent de surveiller ces fluctuations à l’échelle globale ou par secteur.
Voice Search : Avec l’émergence des assistants vocaux (Google Assistant, Alexa, Siri…), les recherches vocales prennent de l’ampleur. Elles modifient la façon dont les internautes formulent leurs requêtes, souvent sous forme de questions naturelles. Cela implique de travailler davantage sur la longue traîne, les featured snippets et les contenus FAQ.
VPS (Virtual Private Server) : Hébergement intermédiaire entre mutualisé et dédié. Il propose un environnement isolé avec ressources garanties, plus adapté au SEO qu’un mutualisé.
W comme Webmarketing
Wappalyzer : Un tool qui permet d’identifier les technologies utilisées par un site Web (CMS, frameworks, analytics, serveurs…). Peut aider à adapter une stratégie SEO ou repérer un CMS à surveiller.
Webmarketing : Le Webmarketing regroupe l’ensemble des techniques visant à promouvoir un site Internet et à générer du trafic qualifié. Il englobe à la fois le SEO (référencement naturel), le SEA (référencement payant), le SMO (réseaux sociaux), le blogging, le content marketing, le networking, l’emailing, et bien d’autres leviers. L’objectif est d’acquérir, convertir et fidéliser les internautes grâce à des campagnes mesurables, adaptées aux cibles. Le Webmarketing est aujourd’hui central dans toute stratégie de communication digitale.
Web Sémantique : Le Web sémantique est une extension du Web classique dans laquelle les informations sont structurées et interconnectées de manière à être interprétées non seulement par les humains mais aussi par les machines. L’objectif est de donner du sens aux contenus pour améliorer la pertinence des résultats. En SEO, cela se traduit par l’usage des données structurées (comme schema.org), l’optimisation de la sémantique des pages (via la lemmatisation, la thématisation, les cocons sémantiques), et la compréhension des intentions de recherche par Google.
WhatRuns : Extension d’analyse technologique similaire à Wappalyzer, avec en plus le tracking des outils qui changent sur un site (changement de CMS, ajout de scripts, etc.).
White Hat : En SEO, on appelle White Hat les pratiques respectueuses des consignes des moteurs de recherche (Google notamment). Ces techniques sont « propres », transparentes et à long terme. Elles s’opposent aux méthodes Black Hat, qui cherchent à tromper l’algorithme. Le White Hat SEO privilégie l’optimisation technique, la qualité du contenu, l’expérience utilisateur (UX), et un netlinking naturel.
WWW : Acronyme de « World Wide Web », soit le « Web mondial ». Il s’agit d’un système hypertexte fonctionnant sur Internet, permettant de consulter des pages reliées entre elles via des liens. L’URL d’un site peut contenir ou non le préfixe « www » sans conséquence majeure sur le référencement, tant que les redirections sont bien configurées (vers l’une ou l’autre version pour éviter le duplicate content).
Web Crawler : Autre terme désignant les robots des moteurs de recherche (ou spiders), qui explorent les pages du Web pour les indexer. Le comportement des crawlers (fréquence, profondeur, priorités) est un enjeu majeur en SEO technique.
Webperf : Ensemble des indicateurs de performance liés au temps de chargement d’un site Web. Essentiel pour l’expérience utilisateur et le SEO.
Woorank : Plateforme en ligne d’analyse de site, très utilisée par les petites entreprises. Fournit un score SEO et des recommandations simples à mettre en œuvre.
WYSIWYG : « What You See Is What You Get », c’est-à-dire « ce que vous voyez est ce que vous obtenez ». C’est une interface de rédaction permettant de créer des contenus visuellement proches du rendu final sans avoir à coder (ex : éditeur WordPress Gutenberg, Elementor).
Webmaster Tools : Ancien nom de la Google Search Console, l’outil destiné aux webmasters pour suivre la santé SEO d’un site, analyser la couverture des pages, les erreurs d’exploration, les performances de recherche, etc.
Wireframe : Maquette fonctionnelle représentant la structure d’une page web (zoning), utilisée en phase de conception UX/UI avant le design graphique. Elle aide à organiser les contenus et optimiser le parcours utilisateur.
Webspam : Ensemble des pratiques abusives visant à manipuler les résultats de recherche (duplication de contenu, cloaking, liens factices…). Google lutte activement contre le webspam avec ses filtres Panda, Penguin ou SpamBrain.
X comme XRumer
X-Content-Type-Options : Directive HTTP permettant de sécuriser un site contre certaines attaques. Elle peut impacter indirectement le SEO via la qualité technique du site, élément pris en compte par Google.
Xenu’s Link Sleuth : Outil gratuit historique permettant d’auditer un site Web pour détecter les liens cassés (erreurs 404, redirections invalides, images absentes, etc.). Il peut aussi être utilisé en analyse concurrentielle pour identifier les backlinks morts et initier des campagnes de broken link building. Bien qu’ancienne, cette solution reste rapide et légère pour scanner des sites de taille moyenne.
X-Frame-Options : Directive de sécurité HTTP empêchant l’intégration de votre site dans un cadre (iframe). Elle protège contre les attaques de type clickjacking. Un site bien protégé est mieux valorisé en SEO technique.
XHTML : Variante du HTML plus stricte en syntaxe, basée sur XML. Moins utilisée aujourd’hui que le HTML5, mais certains anciens sites sont encore en XHTML, ce qui peut influencer le rendu SEO s’il n’est pas bien interprété.
XITI : Ancien service de mesure d’audience Web, développé par la société française AT Internet. XITI fournissait des statistiques complètes sur le trafic, les comportements utilisateurs, les sources de visites. Il a été remplacé par des solutions plus modernes comme l’Analytics Suite d’AT Internet, souvent préférée dans un contexte RGPD à Google Analytics.
XRumer : Logiciel de Black Hat SEO permettant de créer automatiquement des milliers de backlinks via des forums, commentaires, profils d’utilisateurs ou annuaires. Très populaire dans les années 2010, il générait des liens massifs en contournant les systèmes anti-spam. Son usage aujourd’hui est fortement déconseillé : Google le détecte aisément, et son utilisation peut entraîner des pénalités SEO lourdes. Il reste un exemple classique d’outil NSEO (Negative SEO).
X-Robots-Tag : Directive à placer dans les en-têtes HTTP pour contrôler l’indexation des contenus, notamment les fichiers non-HTML (PDF, images, vidéos). Elle permet d’indiquer à Google de ne pas indexer certains contenus :
X-Robots-Tag: noindex, nofollow
Cette balise peut être utile pour les référenceurs qui souhaitent gérer le comportement des moteurs sur des ressources précises non accessibles via les balises HTML classiques.
X-SEO : Terme non officiel parfois utilisé pour désigner des techniques SEO avancées ou poussées à l’extrême (souvent en référence au black hat ou à l’automatisation massive).
XSS (Cross Site Scripting) : Vulnérabilité de sécurité permettant l’injection de scripts malveillants sur une page Web. Bien que non SEO par nature, un site infecté par une faille XSS peut être sanctionné par les moteurs de recherche, affiché comme « dangereux » dans les résultats, et perdre tout son trafic organique.
Y comme Your Money is Your Life
Yaca : Annuaire francophone très utilisé par les SEO dans les années 2000 pour obtenir des backlinks. Il fait partie des anciens annuaires de qualité encore surveillés par certains référenceurs pour des campagnes netlinking ciblées.
YAT : Acronyme humoristique pour « Yet Another Tool » souvent utilisé pour désigner l’apparition de nombreux outils SEO. Cela reflète la richesse mais aussi la saturation du marché des solutions d’analyse.
Yooda : Entreprise française spécialisée dans le développement de logiciels dédiés au référencement naturel (SEO) et au webmarketing. Elle propose plusieurs outils reconnus par les professionnels du SEO. Le plus connu est Yooda Insight, une plateforme puissante permettant d’analyser la visibilité d’un site web, de suivre ses positions, de détecter ses concurrents et d’explorer les opportunités de mots-clés. Yooda s’adresse aussi bien aux agences SEO, aux consultants qu’aux PME souhaitant piloter leur présence sur les moteurs de recherche.
Yooda Insight : Cet outil cloud permet de suivre la performance SEO d’un site web sur Google.fr à travers une base de données comprenant plusieurs millions de mots-clés. Il offre une vision claire des positions organiques, du trafic estimé, de la concurrence et du potentiel de visibilité. Grâce à ses modules comme le « Keyword Research » ou l’analyse concurrentielle, il facilite la mise en place de stratégies SEO ciblées.
Your Money or Your Life (YMYL) : L’expression « Your Money or Your Life », que l’on peut traduire par « votre argent ou votre vie », désigne une catégorie de contenus Web que Google considère comme particulièrement sensibles. Ces pages ont un impact direct ou indirect sur la santé, la stabilité financière, la sécurité ou le bien-être des internautes. À ce titre, elles sont soumises à des critères de qualité bien plus stricts dans les algorithmes du moteur de recherche. Les thématiques concernées incluent notamment la santé (sites de conseils médicaux, diététique, pharmacie en ligne), la finance (investissements, prêts, assurances, fiscalité), le droit (conseils juridiques), la parentalité, la sécurité personnelle, ou encore les achats importants comme l’immobilier et les voitures. Introduit par Google dans ses Quality Raters Guidelines, le concept YMYL repose sur le principe de confiance. Pour être bien positionnés, ces sites doivent démontrer un haut niveau de E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness), c’est-à-dire d’expérience, d’expertise, d’autorité et de fiabilité. En clair, Google veut éviter que des informations erronées, trompeuses ou malveillantes dans ces domaines critiques nuisent à ses utilisateurs. Le SEO des sites YMYL doit donc s’appuyer sur des contenus rédigés par des professionnels, vérifiables, sourcés et régulièrement mis à jour. Toute dérive peut entraîner une baisse brutale de positionnement, voire une désindexation partielle du site concerné.
Yahoo! : Ancien moteur de recherche leader à la fin des années 1990, Yahoo! est aujourd’hui principalement un portail d’actualités. Il utilise depuis plusieurs années l’algorithme de Bing pour afficher ses résultats de recherche. Son influence SEO est très limitée en Europe, mais reste partiellement présente aux États-Unis et en Asie.
Yahoo Answers : Ancien site de questions-réponses qui pouvait être utilisé pour du netlinking ou pour surveiller les sujets populaires. Le service a été fermé définitivement en mai 2021.
Yandex : Moteur de recherche dominant en Russie et dans les pays russophones. Bien que peu utilisé en France, il peut être important de l’optimiser si votre audience est internationale. Yandex a ses propres algorithmes, critères d’indexation et outils pour webmasters (Yandex.Webmaster).
Yield : Terme lié à la publicité mais souvent utilisé dans les analyses SEO/SEA pour mesurer le rendement d’une page ou d’un trafic en termes de conversions ou de revenus publicitaires.
YMYL : Acronyme de Your Money or Your Life. Google utilise cette notion pour désigner les pages ayant un impact direct sur la santé, la sécurité, la stabilité financière ou le bien-être des utilisateurs. Le SEO sur ce type de pages est particulièrement surveillé : l’E-E-A-T (Expertise, Experience, Authority, Trustworthiness) est alors essentiel.
YouTube : Deuxième moteur de recherche le plus utilisé au monde après Google, YouTube offre une opportunité SEO considérable via le référencement de vidéos. L’optimisation passe par le titre, la description, les tags, les sous-titres et les liens externes. Les vidéos bien optimisées peuvent apparaître dans les résultats Google et générer du trafic ciblé.
Z comme Zoo de Google
Zap : Terme utilisé parfois dans les stratégies de netlinking pour désigner une action rapide de suppression ou désaveu de liens toxiques. Un « zap » de lien peut être nécessaire après une pénalité manuelle ou algorithmique.
Zapier : Outil d’automatisation permettant de connecter différentes applications web. Il peut être utilisé pour automatiser des tâches SEO comme la publication de rapports, l’envoi d’alertes ou la mise à jour de bases de données de suivi.
Zero Click Search : Résultat de recherche qui répond à la requête de l’internaute directement sur la page de Google, sans clic nécessaire. Cela réduit le trafic vers les sites mais améliore l’expérience utilisateur.
Z-index : Propriété CSS qui détermine l’ordre d’empilement des éléments sur une page web. Utile pour le SEO technique lorsqu’un contenu important est masqué par une pop-up ou un élément visuel, car il peut impacter la lisibilité du contenu pour Googlebot.
Zone chaude : En ergonomie web et en SEO, il s’agit des zones d’une page web les plus regardées ou cliquées par les internautes. Ces zones sont souvent identifiées grâce à des outils de heatmap. Placer les call-to-actions et les éléments importants dans ces zones peut améliorer le taux de conversion et l’engagement.
Zone DNS : Fichier de configuration contenant les enregistrements DNS d’un domaine (type A, MX, CNAME…). Utile pour le SEO lorsqu’on configure un sous-domaine, une redirection ou un certificat SSL/HTTPS.
Zoning : Terme employé pour parler de la structure visuelle d’une page web. Un bon zoning permet une meilleure lisibilité et hiérarchisation de l’information, à la fois pour l’utilisateur et pour les moteurs. Il participe à l’UX et donc indirectement au SEO.
Zoo de Google : Expression imagée utilisée par la communauté SEO pour désigner l’ensemble des filtres et algorithmes déployés par Google afin d’améliorer la qualité des résultats de recherche. Chaque filtre porte souvent un nom d’animal, ce qui a popularisé cette appellation. Ces filtres ont des rôles spécifiques et peuvent avoir un impact significatif sur le positionnement d’un site. Consultez notre article sur le sujet pour une vue d’ensemble. Citons pour exemples :
- Google Panda : Lancé en 2011, cet algorithme vise à pénaliser les sites proposant du contenu de faible qualité, dupliqué, pauvre ou sans valeur ajoutée pour l’internaute. Il a forcé les éditeurs à se concentrer davantage sur la qualité éditoriale de leurs pages ;
- Google Penguin : Introduit en 2012, ce filtre cible les pratiques de netlinking abusif, notamment les backlinks non naturels, les ancres suroptimisées ou les réseaux de liens artificiels. Il a bouleversé les stratégies de netlinking trop agressives ;
- Google Hummingbird : Déployé en 2013, il représente une évolution majeure dans la compréhension des requêtes par Google, mettant l’accent sur le sens global et l’intention de recherche plutôt que sur la simple correspondance de mots-clés ;
- Google Pigeon : Mise à jour ayant renforcé le référencement local, en mettant en avant les résultats issus de Google Maps et Google My Business. Très utile pour les commerces de proximité ;
- Google Fred : Terme non officiel utilisé pour désigner des mises à jour lancées en 2017 ciblant les sites générant du contenu à faible valeur ajoutée principalement dans une optique de monétisation excessive (ex : MFA).
Zoom de contenu : Terme non officiel parfois utilisé pour désigner une stratégie de concentration sémantique autour d’un thème spécifique, à travers un cocon sémantique, une page pilier ou une structure en silo.
Zombie Page : Désigne une page indexée par Google mais sans intérêt réel pour les internautes ni pour le SEO. Elle ne génère ni trafic ni engagement. Trop de pages zombies peuvent nuire à l’indexation globale d’un site. Un audit SEO est souvent nécessaire pour les repérer et les supprimer ou les fusionner.
Très beau travail, merci pour ce lexique qui me sera bien utile à moi et surtout à mes clients. Je partage !