Dans le monde du référencement référencement naturel, les pratiques ont considérablement évolué avec l’apparition de techniques nouvelles en phase à la fois avec les souhaits de moteurs de recherche comme Google et l’utilisateur. Il est de coutume de séparer deux types de référenceurs : les seo White Hat et les référenceurs black hat. Cette dichotomie que l’on retrouve chez les agences de référencement et les freelances est dans les faits assez relative ; il est ainsi parfois difficile de faire la part des choses entre les techniques parfaitement white ou black, notamment lorsque l’on évoque les backlinks voire le cloacking comme on le voit un peu plus loin. Commençons par définir ce que sont les “chapeaux noirs”.
Une définition du référenceur black hat
Si l’on devait simplifier, nous dirions que les pratiques black hat sont discutables, parfois non éthiques et contrevenant aux règles édictées par Google. En certains cas même, il faut les considérer comme illégales dans la mesure où elles nuisent non seulement aux souhaits du moteur (ça c’est son problème) mais aussi à d’autres entreprises. Le référenceur black hat (ou BH) peut donc être perçu comme malfaisant au regard de la communauté mais il n’en demeure pas moins que certains s’illustrent particulièrement pour forcer un certain respect quasi-unanime.
A l’instar de ce que l’on peut voir chez les hackers, et en référence aux vieux westerns séparant les “bons” des “méchants”, leurs chapeaux prennent des couleurs différentes. On va donc considérer qu’il existe deux types séparés de SEO.
Et au milieu se trouvent les “grey”.
Comme pour le référenceur White Hat, le but du black est de se positionner le plus haut dans la SERP de Google. Toutefois, une grande différence se fait dans la manière qui est jugée “artificielle”. Dans la réalité également, les sites positionnés artificiellement ont de grands risques de se voir infligés des pénalités par le moteur de recherche. La technique est donc à classer comme dangereuse, surtout si elle implique de prendre des initiatives inconsidérées pour une marque comprenant des salariés, des gens vivant du retour des résultats du Web, bref une économie pérenne.
C’est pourquoi on remarque (ou pas) que certains black hat n’hésitent pas à user de tous moyens alors que d’autres auront des usages bien plus modérés.
Quelques techniques SEO relevant du black Hat
Google déteste le spam et toutes les techniques qui nuisent à sa parfaite utilisation conforme à ses guidelines. Peut-âtre avez-vous déjà reçu une pénalité manuelle visible dans la Search Console ? “Vous contrevenez aux règles….” Voici ce que Google ne veut pas, d’abord en vidéo avec (à l’époque) Matt Cutts :
Le site piraté, certainement l’une des parties les plus dures du black Hat
En piratant un site, vous êtes dans l’illégalité. Cela dit, le SEO black Hat peut le faire avec l’intention de créer par exemple un répertoire supplémentaire avec du lien, positionner du lien caché sur le site… Bref, du backlink utile si possible dans la même activité pour positionner des pages d’un site Internet dans la plus grande discrétion (enfin presque parfois).
La technique peut tout simplement consister également à vouloir pirater un site pour éliminer un concurrent : l’illégalité est encore plus caractérisée et même cette fois-ci absolument pas éthique.
Et la pratique a de l’avenir devant elle quand on prend soin de noter que WordPress est le plus utilisé des CMS. Un succès qui permet de faciliter l’apprentissage de techniques pour le réaliser. Nous ne traiterons pas ce point ici mais surveillez votre search console 🙂
Le pénible Spamco ou spam de commentaire
Le spamco, appelé généralement spam de commentaire est apparu dès les premiers blogs. L’idée est simple: créer du lien (encore lui) via les commentaires sur les blogs, articles de presse et autres forums. La chose se faisait assez manuellement jusqu’à l’apparition du nofollow, un moyen mis en œuvre par Google pour lutter contre la généralisation du phénomène et qui conduit encore aujourd’hui certains black hat vous vendant du louboutin ou encore des produits pour améliorer votre “sex appeal” à utiliser des solutions parfaitement automatisées : rappelez-vous que le web est traversé de part en part par des robots, pas que des sympas. Le lien de commentaire est suspect par nature et Google n’aime pas le suspect : En 2017, notre meilleur conseil est d’oublier l’idée de passer votre blog en dofollow.
L’achat de lien, c’est le mal
Bon, peut-être l’avez vous compris, mais pour faire ranker plus facilement un site, il faut du lien. Le vrai hack de Google et de son algo, c’est le lien. Fondamentalement, Google comprend que l’on puisse faire usage d’affiliation par exemple (même s’il n’aime pas trop) : Faire la promotion d’un produit sur un blog, c’est l’invite à placer encore un lien nofollow. Il comprend assez bien aussi l’idée de partenariat (allez c’est normal de faire un lien vers le copain). Toutefois, on parle ici d’achats de liens auprès d’autres webmasters, conte rétribution. Si la transaction a des airs de “naturel”, on se retrouve dans le cas de black hat relativement modéré.
Ici, ce sont surtout des teams techniques de chez Google qui trouveront la blague. Ont fleuries ces dernières années des solutions de mises en relation des blogueurs(es) et des annonceurs…
Autre potentialité dans l’achat : qu’est ce qui vous empêche de contacter le webmaster d’un “partenaire” de concurrent pour lui proposer de changer le lien d’origine vers votre site ? Une opération rémunérée bien sûr : Interdit !
Le cloacking
Si dans la définition initiale du présent article, j’évoquais le caractère ambigu du cloacking comme faisant partie des pratiques Black Hat, et bien qu’il apparaisse dans le message d’alerte de la search console : “Vous contrevenez aux règles…”, c’est bien parce que c’est souvent visible et d’ailleurs limite encouragé (il y a longtemps maintenant par Rand Fishkin lui-même). Cet article tellement intéressant où l’on comprend les deux poids deux mesures de Google, tolérant avec ceux qui sont de bons clients comme Amazon ou des marque comme Nike, beaucoup moins avec ceux qui ne veulent pas d’Adwords. Une constante qui incite parfois à tricher avec le moteur. On évitera son usage toutefois si l’on veut se focaliser sur les guides de Google et éviter d’avoir affaire avec la quality team.
Le cloacking, c’est particulièrement technique : il s’agit de configurer un serveur pour qu’à l’appel d’une adresse, le robot n’ait pas le même affichage que l’humain. Le robot disposant d’une signature, il est possible de le discriminer du trafic d’un site. Le cloacking est encore utilisé mais les risques encourus vont jusqu’au blacklistage et la désindexation. A ranger dans la catégorie du spamdexing 🙂
La création de splog : Le spam de la SERP
Contraction de spam et blog, les spamblogs sont souvent traqués par Google et sont assez souvent la raison motivant des updates du moteur. Créés de manière automatique ou semi-automatiques, ces blogs ont pour vocation parfois à générer de la publicité (les mfa ou mft) mais aussi également à créer du contenu pour donner du lien à un site principal. La qualité du contenu n’est pas particulièrement recherchée et c’est pourquoi il est souvent fait usage de content spinning.
La création de linkwheel
Laurent Bourrelly a bien décrit le phénomène dans l’un de ses célèbres articles. Il y explique notamment comment le faire proprement. Faire attention au changement de serveurs, IP,etc. Le principe du linkwheel est simple : Une série de 6 à 12 sites se lient entre eux de la manière suivante : le site 1 pointe vers le site 2 et fait un lien vers le money site. Le site 2 fait un lien vers le site 3 et également vers le money site (…) ainsi de suite comme dans l’exemple suivant :
De la même manière, ce type de montage permet de créer une distinction de liens ; ceux maîtrisés par le référenceur (le réseau privé) et ceux qui ne le sont pas (le réseau public). L’intérêt est bien sûr de pouvoir utiliser la force du contenu pour promouvoir le site marchand. Interdit par Google et la quality team de nouveau, seul l’humain étant en mesure actuellement de bien repérer le stratagème. Étonnant par ailleurs, certains sites bénéficient de constellations complètes de sites sur des mêmes serveurs et ne sont pas pris par la patrouille (notamment sur le concurrentiel comme la plomberie ou encore la serrurerie : que fait Google ?).
Le Spam referrer
Bien que Google ait particulièrement combattu récemment cette manière de faire, le spam referrer existe bel et bien : Son but est d’acquérir du trafic par plusieurs techniques que nous avions déjà évoquées dans cet article : Souvenez-vous de la mascarade du vote for Trump ! L’idée est de manipuler l’humain cette fois, soucieux de comprendre les sources de trafic dans sa console analytics. En utilisant un script ou un logiciel, le black hat simule de faux liens externes.
L’utilisation de redirections
La redirection trompeuse. Un classique qui permet d’amener à partir d’un site ou d’un moteur de recherche un internaute sur un autre site. Google n’apprécie pas cette pratique. Elle peut se faire par l’usage de liens morts notamment : le back hat va crawler les liens externes de sites concurrents à la recherche de liens pointant vers des domaines expirés. En rachetant ces derniers et en effectuant des redirections (ou en créant un mini-site intermédiaire), il va pouvoir transmettre le jus web vers le money site. Usage très connu, il existe aujourd’hui des moyens moins fastidieux de trouver le super domaine dans la bonne thématique et des services sont apparus en ligne de revente de domaines expirés. C’est ici que le link building perd son côté blanc. Attention à Pingouin !
Le negative SEO
Interdit, relevant du pénal, il est différent de la technique précédemment évoquée du piratage de site. Non, cette fois-ci il s’agit même d’un ensemble de techniques permettant de pourrir la situation d’un concurrent. L’une des exploitations les plus connues est de créer du lien toxique, généralement en nombre. Une façon de faire croire que le site visé est en fait responsable des ces “actions contrevenant aux règles de…” Il est aussi possible de nos jours de faire baisser la réputation d’un site et l’émergence de la Google My Business a permis également de travailler les réputations à la baisse… Le negative SEO est potentiellement un véritable sport qui devrait faire l’objet d’un article et d’une définition au même titre que le SEO lui-même. Pour qui a subi ce genre technique, quelle plaie !
L’usage abusif de données structurées
Nouveau sport depuis l’entrée dans la danse du schema.org, le balisage abusif permet de manipuler la SERP en la spammant allégrement. Plein de techniques ont émergées et quand vous savez que vous pouvez produire des résultats visibles comme Marmiton ou cuisine AZ, cela peut paraître tentant :
Non pas que ces deux prestigieux sites en abusent, mais il est possible de faire la même chose le temps que Google puisse être en mesure de changer la donne pour n’importe quoi d’autre, une brosse à dent ou le dernier Iphone (ah ah). De la même manière, les petits amusements avec de l’unicode sont progressivement balayés (voir notre article sur la balise metadescription). Un gain de visibilité à la limite du black hat, on est d’accord, mais abuser de données structurées peut faire l’objet de pénalité Google (!). Quand on sait que l’on peut gagner facilement 30% de trafic supplémentaire et marquer une visibilité concurrente aux ads…
Le contenu caché
L’ajout de contenus à destination des moteurs et non des humains est une pratique black hat. On connaît l’usage du texte blanc sur fond blanc qui marchait il y a dix ans mais si l’on pense à la sur-optimisation des balises alt, cela teinte déjà de “gris” le référenceur White Hat. On joue ici encore la carte de l’artificiel. Mais ne serait-ce pas l’une des techniques les moins fun du référenceur black hat ?
Conclusion
Difficile d’être exhaustif en un seul article sur l’ensemble des techniques ni même d’ailleurs sur une définition simple et éternelle du black hat. Disons que pour simplifier, les chapeaux noirs essayent de contourner les règles édictées et s’adaptent tant que possible aux changements de l’algorithme. Ne pas avoir peur de perdre des pions (des sites) ou savoir que Google vous tombe dessus au prochain update mais que vous amassez entre temps, c’est un peu la philosophie. Se focaliser sur le lien est aussi typique. Pour déceler ce type de procédé, pour la mettre en œuvre également, il faut de très nombreuses années d’expérience, à l’instar de tout spécialiste SEO. Et si Google déteste avant tout ces stratégies alternatives, c’est pour une raison déjà évoquée plus haut : il faut bien que le moteur monétise sa SERP. Pour en savoir plus également sur les actions manuelles (pénalités) encourues, voir ce que dit Mountain view.
Pas de commentaire