On appelle black hat SEO toutes les techniques de référencement qui s’appuient sur la manipulation des algorithmes des moteurs de recherche pour bien positionner une page web sur les SERPs. Le terme “black hat” viendrait des westerns dans lesquels les antagonistes malfaisants portaient souvent un chapeau noir. L’autre expression moins connue et synonyme du black hat SEO est “spamdexing”, qui combine les mots “spam” et “index”.

Il s’agit donc d’une expression connotée négativement, car elle contrevient au bon fonctionnement de Google et consorts, dont la promesse est de livrer aux utilisateurs les meilleures ressources disponibles sur internet en réponse à leurs requêtes. La pertinence, rien que la pertinence ! Or, les algorithmes, bien que toujours plus performants pour déterminer la qualité d’une page, présentent encore de grosses failles. Il est donc relativement facile de les duper – encore plus que les humains – et d’atteindre illégitimement le sommet des pages de résultats.

hacker qui porte un chapeau noir

Dans cet article, nous allons voir quelles techniques sont estampillées black hat et les risques qu’elles impliquent. Nous discuterons aussi de la possibilité – voire la nécessité – d’y recourir de temps en temps, sans pour autant vous mettre en porte-à-faux vis-à-vis du géant de la Mountain View.

Pourquoi le Black Hat SEO, c’est “mal” ?

Philosophiquement, il va de soi que le black hat SEO est une approche contre-productive pour les moteurs de recherche, puisque son but est de faire ranker des pages indépendamment de leur qualité supérieure à la concurrence. Ce n’est donc pas le meilleur qui gagne, et l’utilisateur peut en pâtir. Or, un internaute insatisfait, ça ne va dans l’intérêt de personne.

En conséquence, Google va essayer d’éviter le plus possible ce genre de cas de figure. Pour cela, la firme publie régulièrement des consignes à l’adresse des webmasters pour indiquer la meilleure marche à suivre et les sanctions possibles en cas de non-respect des pratiques dites “légitimes”.

Quels sont les risques à employer des techniques de spamdexing ?

Dans l’idée, on va préférer éviter le plus possible de SEO black hat pour les raisons suivantes :

  • esquiver les pénalités Google (actions manuelles, filtres algorithmiques comme Panda, Pingouin, Fred, etc.), qui consistent en un déclassement ou une désindexation de la page incriminée, ou du site complet ;
  • ne pas risquer de s’y prendre mal et de n’obtenir aucun résultat, avec, au pire, un impact négatif et, au mieux, un impact positif qui ne dure pas.

En effet, quand bien même vous parvenez à vous positionner avec du spamdexing, si l’utilisateur écourte les visites sur vos pages à cause d’une mauvaise expérience, si un concurrent utilise la même technique que vous, ou si quelqu’un vous signale à Google, l’avantage obtenu sera réduit à néant.

popcorncinemashow

C’est pourquoi on préconise toujours de bâtir une stratégie SEO “white hat”, c’est-à-dire complètement tournée vers l’intérêt de l’utilisateur. Elle est plus longue à porter ses fruits mais, en contrepartie, ses effets sont plus durables. En effet, lorsque vous avez acquis assez de notoriété, il devient beaucoup plus difficile de vous déloger du top 10 des SERPs.

Sauf que la concurrence est rude et que le business n’attend pas. Alors, comment fait-on ?

Pourquoi utilise-t-on le Black Hat SEO quand même ?

On peut relever trois bonnes raisons de ne pas rejeter en bloc le spamdexing.

1. La faute aux bots d’exploration !

Premièrement, les algorithmes ne sont pas parfaits. Leur méthode de classement ne récompense pas forcément la meilleure page dans l’absolu, mais celle qui présente les meilleurs indicateurs de qualité. Parmi eux figurent les backlinks et le jus SEO qu’ils rapportent. Dans ces conditions, il existe des cas de figure comme suit :

  • un site A fournit un contenu très qualitatif depuis dix ans, ce qui lui vaut d’avoir accumulé moult backlinks ;
  • un site B publie depuis quelques mois des articles plus riches, plus complets et à jour sur le même sujet, mais n’a encore reçu que très peu de trafic et de linkjuice ;

Les bots Google, qui n’ont pas passé de master dans la thématique abordée, vont comprendre que les deux articles contiennent des mots-clés naturels, que les contenus sont bien structurés, avec quelques différences sur le fond, etc.. Pour départager les deux publications, ils auront tendance à privilégier la page qui appartient à un site bénéficiant d’une forte notoriété. Bilan : ce n’est pas toujours le meilleur travail qui prime ! En conséquence, tous les propriétaires de site, et pas uniquement les plus véreux, courent après les liens entrants !

2. Le Black Hat SEO peut servir des sites de bonne qualité

Ce qui découle directement du point précédent, c’est qu’il peut être dans l’intérêt de l’internaute qu’un site web profite de la manipulation des algorithmes Google. En effet, faire du spamdexing n’exclut en rien la possibilité de proposer le meilleur contenu possible. Bien sûr, cela retire au moteur de recherche une partie de son pouvoir d’arbitrage, mais si l’internaute est satisfait, sanctionner le site peut devenir problématique.

renard grey hat

C’est notamment pour cela qu’il existe des équipes SQL (Search Quality Teams) formées pour vérifier que les domaines concernés postent des publications valables selon les critères E-E-A-T (Experience, Expertise, Authority, Trust) et YMYL (Your Money, Your Life) de Google. De ce fait, certaines pratiques originellement Black Hat sont tolérées, car employées de manière vertueuse. C’est ce que l’on a, à terme, nommé le SEO Grey Hat

3. Tout le monde utilise des méthodes Black Hat

C’est donc fort logiquement que la manipulation des algorithmes s’est largement répandue dans la sphère du référencement naturel. Comment faire autrement, quand tout le monde est logé à la même enseigne ? Tout le jeu consiste alors à demeurer dans la zone grise, c’est-à-dire en commençant par toutes les optimisations White Hat, puis en complétant avec ce qu’il est possible de réaliser sans prendre trop de risques.

Les algorithmes, s’ils sont capables de valoriser les bons sites ou de les pénaliser, peuvent également adopter une posture de neutralité, en ignorant purement et simplement les tentatives de manipulation grossières, facilement repérables et qui ne portent atteinte ni aux internautes, ni aux autres sites internet.

Quelles sont les manipulations Black Hat les plus répandues ?

À présent, place à la pratique ! Il est important de connaître les principales manipulations de spamdexing, afin de savoir les identifier, et d’éviter de les employer à mauvais escient sous les recommandations d’un mauvais référenceur. Pour chacune, nous donnerons le niveau de risque qu’elle représente, les chances pour qu’elle fonctionne et comment la mettre en place quand c’est possible.

Keyword Stuffing et texte caché pour une forte densité sémantique

Le Keyword Stuffing, c’est littéralement le “bourrage de mots-clés”. Cela consiste simplement à remplir un texte avec toutes les expressions susceptibles d’attirer l’attention des algorithmes pour les convaincre de la pertinence de son contenu. Cette technique assez naïve a fait ses preuves un certain temps, mais n’a plus beaucoup d’effets depuis que des filtres comme Panda et Colibri sondent la richesse des publications et les intentions de recherche des utilisateurs.

Afin d’épargner aux utilisateurs une expérience de lecture désastreuse, certains webmasters ont entrepris de cacher des textes bourrés de mots-clés en marge des contenus (exemple : un paragraphe blanc sur fond blanc).

interface yourtextguru

Recommandations : une astuce éculée, qui ne vaut clairement pas le détour. Demandez plutôt à vos rédacteurs d’optimiser leurs textes grâce à un outil comme YourTextGuru.

Fausses métadonnées pour appâter les internautes

Les métadonnées sont les informations qui s’affichent dans les SERPs pour donner un aperçu du contenu de la page affichée en suggestion. Il peut s’agir notamment des snippets (adresse URL, titre de la page, mini-description) ou des avis Google.

Vous comprendrez aisément combien il est tentant de trafiquer les avis en rapport avec votre activité, mais en ce qui concerne les snippets, il faut des conditions particulières. Par exemple, vous avez un article provisoire de type “bon plan”, qui promet une réduction d’achat sur un produit quelconque, mais sur une période limitée. Le trafic obtenu sur la page en question est tellement élevé que c’est un crève-cœur de retirer la page, une fois l’opération commerciale terminée. Certains propriétaires peuvent être tentés de laisser la page active et d’en modifier le contenu sans toucher aux snippets. Bilan : les internautes ne trouvent pas ce pour quoi ils avaient cliqué.

Recommandations : faire rédiger un ou deux avis positifs artificiels est rarement dangereux, surtout si la qualité du service suit véritablement. En revanche, les snippets trompeurs ont déjà occasionné des poursuites judiciaires. Ne faites pas ça !

Cybersquattage et typosquattage pour voler la notoriété d’autrui

Vous connaissez un site web bien classé, qui attire beaucoup de trafic ? Vous achetez un nom de domaine qui lui ressemble (avec une lettre de plus par exemple), créez un logo qui prête à confusion, et profitez de la notoriété de la marque pour attirer nombre d’internautes distraits sur votre plateforme.

Recommandations : la procédure judiciaire vous pend au nez, passez votre chemin, c’est de la cybercriminalité à ce stade.

Traductions et autres contenus dupliqués pour alimenter un site sans efforts

Le duplicate content ou contenu dupliqué est monnaie courante sur le web ! Il s’agit de reprendre à l’identique un texte ou une vidéo déjà en ligne. Le degré zéro de cette technique est de procéder à un bon gros copié-collé de contenu rédactionnel glané sur le net et de le republier sur son propre site web. Sauf que Google essaye de respecter la propriété intellectuelle, et peut sévir dans les grandes largeurs s’il constate qu’un webmaster a copié sur l’un de ses petits camarades.

Néanmoins, cela ne fonctionne pas toujours très bien, et ce pour deux cas de figure assez précis, assez rares cependant :

  • l’antériorité de la publication passe après le niveau d’autorité du site (oui, oui ça arrive !), donc il peut arriver qu’un domaine avec un meilleur PageRank puisse revendiquer la paternité d’un texte qu’il a dupliqué ;
  • quelqu’un a scrappé un site web dont les dernières publications n’ont pas encore été indexées. Il récupère le contenu, l’utilise pour son propre site et se débrouille pour l’indexer en priorité.

Autre cas assez commun, qui tend toutefois à considérablement se réduire, c’est la technique scandaleusement simple de la traduction de contenu. Vous trouvez un excellent créateur qui travaille pour un public anglophone, hispanophone ou autre, et vous pillez ses productions en utilisant DeepL ou Google Trad. Vous corrigez les fautes de français semées par l’IA et vous voilà avec des pages et des pages remplies de fond de qualité.

meme deepl

Recommandations : le duplicate content est vraiment une mauvaise idée. Si ce n’est pas Google, les référenceurs disposent d’outils SEO pour détecter les plagiats sur le web. Au mieux, vous vous exposez à un déclassement, au pire à une désindexation et à des poursuites judiciaires. Préférez le scrapping vertueux : glanez moult informations sur un sujet, et retravaillez l’ensemble pour générer un contenu original.

AI Content et content spinning pour remplir artificiellement votre blog

Pas forcément le temps et les ressources pour pondre des centaines d’articles ? Vous avez sans doute déjà songé à ChatGPT et tous les autres générateurs de discours, d’images et de vidéos pour vous assister. Pour cela, de deux choses l’une :

  • vous lancez un prompt qui demande à l’IA de composer un article qui comporte un certain nombre de caractéristiques (nombre de mots, mots-clés, structure, etc.) ;
  • vous utilisez le content spinning, qui consiste à prendre un texte existant et à le décliner en de multiples versions grâce à des synonymes et expressions similaires (il existe des logiciels dédiés).

Recommandations : les risques de pénalités sont faibles, mais le problème est ailleurs. Outre les possibles erreurs de langue, les textes générés par l’IA se ressemblent tous, et ont donc quelque chose d’insipide. L’expérience de lecture en est donc altérée. Retravaillez les textes obtenus, ou ne demandez à l’IA qu’un plan, ou occasionnellement une intro. Quant aux images, vous pouvez y aller, mais signalez toujours qu’elle provient de Dall.e ou autre (même si, en général, ça se voit à l’œil nu).

Cloaking et pages satellites pour appâter les bots

On touche à des manipulations plus techniques, qui consistent à afficher aux internautes une page différente de celle qu’ont crawlé les bots des moteurs de recherche.

D’abord, il y a le cloaking : le site web est programmé pour distinguer les bots des internautes lorsqu’il reçoit une requête de navigation, grâce à l’user agent, l’adresse IP ou encore l’en-tête HTTP_REFERER. Selon le type de demandeur, il affiche un contenu différent, ni vu ni connu.

schéma cloaking

Ou bien il y a les redirections trompeuses. Dressez une liste de mots-clés à travailler, et vous tombez sur des opportunités stratégiques, avec un fort volume de recherche et une faible difficulté de classement. Seul hic, le mot-clé en question ne correspond pas exactement à ce que propose votre site (ex : nom précis de lieu ou de marque autre que vous).

Vous allez alors créer une “page satellite”, optimisée pour le mot-clé en question. Par exemple : “aspirateur-balai Dyson”. Sauf que vous représentez la marque Rowenta. Vous créez une fausse landing page qui correspond à la requête (qui contient le terme “Dyson”), et vous placez une redirection trompeuse dessus, qui conduit à la page d’accueil de votre e-boutique. L’internaute ne voit jamais la page satellite, mais les bots, qui savent qu’elle existe, la prennent en compte dans leur classement. Bref, c’est un leurre.

Recommandations : il existe des situations où l’usage de la page satellite est acceptable (mots-clés sensibles, problèmes de code qui empêchent les bots de lire les mots-clés, page non-modifiable, etc.), mais Google est de plus en plus alerte avec ce genre de pratiques, donc ne vous y aventurez pas sans les conseils d’un expert SEO. Quant au cloaking, oubliez. C’est une méthode dépassée et absolument réprouvée par les moteurs de recherche, donc dangereuse par-dessus le marché.

Ferme à lien et PBN pour fabriquer des backlinks

On l’a mentionné plus haut, les backlinks sont très puissants pour le référencement. C’est pour cela que les référenceurs ont rapidement inventé des techniques pour en obtenir de manière parfaitement frauduleuse.

La première s’intitule “link farm” ou ferme à liens. Il s’agit de domaines prévus pour s’échanger des liens afin d’augmenter le PageRank. Ils ne sont pas de très bonne qualité, mais l’idée est de jouer sur le nombre massif de liens qui interconnectent les sites selon diverses structures possibles (étoile, roue, chaîne, niveaux, etc.). C’est assez peu cher, car automatisable.

La seconde est connue sous le nom de PBN (Private Blog Network). C’est un peu la version évoluée de la ferme à liens, car on va pousser la qualité des sites du réseau, et on va concentrer tout le linkjuice vers un seul money site. Cela requiert bien plus de ressources, mais le rapport avantages-risques est beaucoup plus faible.

Recommandations : les fermes à liens sont de moins en moins efficaces, et l’algorithme Pingouin veille aux grains contre les backlinks de basse qualité. Tandis que les PBN, s’ils sont bien fichus, peuvent grandement porter leurs fruits. En outre, plus les blogs sont de qualité, plus on s’éloigne du black hat. Et dans un monde idéal, tous les éléments de votre PBN sont des money sites !

Black Netlinking pour obtenir facilement des backlinks

Il incombe aux propriétaires de domaine internet de faire du SEO off-site, c’est-à-dire d’optimiser tout ce qui gravite autour de la plateforme à référencer, afin de multiplier les sources de trafics et les chances d’acquérir des backlinks. En toute rigueur, on peut considérer qu’il s’agit d’une manipulation, car on essaye de jouer sur les mécanismes des algorithmes pour ranker. Mais considérer que c’est black hat, c’est un peu fort de café. Personne ne veut rester dans son coin comme un vieux livre poussiéreux.

serp acquisition de backlinks

Ainsi, le netlinking (optimisation du réseau) est entré dans les mœurs comme une pratique légitime. À quelques détails près :

  • l’achat de liens en masse, spammys et sans intérêt pour l’expérience utilisateur ;
  • l’achat de liens sur un site tiers sans utilisation de la balise rel = “no follow” ou rel = “sponsored”, qui indiquent aux crawlers de ne pas transférer de linkjuice ;
  • béchanges de liens excessifs avec d’autres sites web ;
  • les liens spammys laissés en commentaire sur des blogs ou des forums ;
  • les ancres de liens suroptimisées.

Enfin, dans la famille Grey Hat, on appelle le parasite SEO, qui consiste à profiter de la notoriété d’un site en y plaçant un lien vers nos propres pages. Cette technique reste tout à fait valable lorsqu’on s’en tient au guest blogging ou le partage de contenus sur les réseaux sociaux, à condition que cela serve aux internautes actifs sur ces pages.

Recommandations : en résumé, les liens entrants artificiels et sans intérêt pour l’utilisateur sont à éviter le plus possible. Visez la pertinence, et pratiquez le linkbaiting au maximum. Des achats ou échanges de liens de ci de là seront tolérés.

Negative SEO pour s’attaquer directement à la concurrence

Pour le coup, le negative SEO, c’est vraiment méchant. Et le pire, c’est que cela peut fonctionner ! Si nous acceptons d’en parler, c’est uniquement pour vous aider à vous en prémunir. Voici donc les attaques SEO les plus courantes :

  • envoyer massivement des liens spammys sur le site visé afin de provoquer une pénalité (Blast SEO) ;
  • laisser de faux avis négatifs sur les réseaux et la fiche Google ;
  • surcharger la bande passante du site cible en exploitant une faille de sécurité ou par des requêtes trop conséquentes jusqu’à saturation (hotlinking, injections SQL, etc.) ;
  • lancer une attaque DDOS (Denial of Service) qui consiste à rendre le site concurrent indisponible sur certaines plages horaires ;
  • etc.

Recommandations : des techniques de Negative SEO, il y en a de toutes sortes. N’y touchez pas !

En revanche, renforcez au maximum la sécurité de votre site web et soyez attentif aux notifications de la Google Search Console au cas où vous subiriez une pénalité qui n’a pas lieu d’être.

Pour finir…

Avec le Black Hat SEO, tout est une question de dosage. Vous pouvez employer occasionnellement de petites astuces pour gonfler un peu votre PageRank et jouer des coudes dans les SERPs, à partir du moment où, sur le fond, le travail White Hat est bien exécuté. Quoi qu’il en soit, ne faites rien au détriment des utilisateurs, ni des autres sites web afin de ne pas tomber dans la concurrence déloyale.

Enfin, attention aux méthodes les plus agressives, qui promettent des résultats ambitieux. Certes, cela peut fonctionner, mais jamais pour très longtemps, ce qui est contraire aux principes du SEO.