Audit SEO Je commande mon audit

Définition du Black Hat SEO

Black Hat SEO se réfère à une approche d'optimisation des moteurs de recherche. Il viole délibérément les directives de Google afin d'obtenir de meilleurs classements. Le nom Black Hat SEO est dérivé des films occidentaux, où l'adversaire portait souvent un chapeau noir. Le héros à son tour un blanc - origine pour White Hat SEO.

Informations générales

Avec le début de la commercialisation de l'Internet, des méthodes ont été établies avec lesquelles les résultats des moteurs de recherche peuvent être délibérément manipulés. Black Hat SEO (aussi : blackhat SEO) utilise principalement des méthodes de spamming. Celles-ci sont très étendues et peuvent inclure des techniques telles que l'utilisation de fermes de liens ou la dissimulation de texte. Mais aussi des méthodes avec plus d'intervention sont utilisées. A titre d'exemple, on peut citer la modification automatique des liens. Le but est d'utiliser des logiciels automatisés pour placer de nombreux liens sur différentes pages. Celles-ci ne contiennent généralement pas de contenu réel, mais des textes créés automatiquement, dénués de sens. Ici on espère surtout une augmentation de la popularité du lien.

10 méthodes d'optimisation Black Hat

Il existe de nombreuses méthodes différentes pour faire fonctionner Black Hat SEO. Google lui-même énumère plusieurs méthodes différentes : voir les Quality Guidelines de Google. Cet article vous éclairera sur les méthodes d'optimisation des moteurs de recherche qui ne sont pas souhaitables ou qui se trouvent dans une zone grise.

Cloaking

Le "camouflage" en français. Le camouflage fait référence aux techniques qui montrent aux moteurs de recherche un contenu différent de celui des visiteurs humains. Ceci peut être fait, par exemple, en utilisant des redirections Javascript qui ne sont pas traçables par Google. Les directives officielles de Google sont ici sans ambiguïté. Les cas problématiques et difficiles à évaluer sont des cas dans lesquels certains éléments sont remplacés ou rendus invisibles pour les navigateurs du point de vue de la convivialité. Dans le contexte d'une page Web sans obstacle, on ne passe pas régulièrement à côté de ces techniques.

IP delivery

Une méthode très similaire aucloaking est le transfert via l'adresse IP du visiteur. Les sites bien connus des moteurs de recherche ont généralement des adresses IP connues. Ceci pourrait être utilisé pour tricher sur les moteurs de recherche avec d'autres contenus extrêmement optimisés.

Texte invisible

Il s'agit également d'une tentative de simulation de contenu dans le code source d'un moteur de recherche qu'un visiteur humain normal ne peut voir. Cela devient excitant lorsque la couleur de fond est déterminée par des graphiques ou lorsqu'une solution CSS conduit à l'invisibilité. Quiconque utilise de telles solutions doit s'attendre à ce que les moteurs de recherche le reconnaissent de plus en plus et éventuellement le punissent.

Doorway pages

Les doorway pages sont une passerelle pour les moteurs de recherche. Cela signifie que pour les termes de recherche importants et spéciaux, vous générez vos propres pages, spécialement optimisées, et vous les laissez se référer à l'offre Web actuelle. La caractéristique est le réseau de liaison unilatéral.

Mini pages

Comme pour les pages de Doorway, vous pouvez également placer des mini-pages thématiques et toujours créer un lien vers la page centrale. Ici, il devient déjà difficile pour les moteurs de recherche d'évaluer les abus. La reconnaissance du réseau relationnel est cependant très prononcée au sein du moteur de recherche, comme l'a montré Matt Cutts, employé de Google, à l'occasion d'un salon professionnel.

Google souligne qu'il ne devrait pas y avoir plus d'environ 100 liens sur une page. Puisque les liens entrants ont une grande importance, des pages ont été créées qui se composent d'innombrables liens. Ceux-ci ont été et sont dévalués naturellement par les moteurs de recherche tels que Google.

Liens dans des commentaires

Les liens sont particulièrement faciles à placer dans les commentaires de blog et les signatures de forum. Bien que de nombreux liens dans les blogs soient invalidés avec rel="nofollow" et que les pages du forum ne soient souvent pas indexables à cause de l'url, il existe aussi de nombreuses exceptions. Ici, les abus sont évidents, comme en témoigne l'énorme quantité de spam.

Mots-clés

Répétez anormalement des mots-clés trop souvent... C'est tout ce qu'il y a à faire. Il est intéressant de noter que Google est actuellement incapable de détecter les pages indésirables tant que la distribution des mots-clés est normale et que la densité n'est pas inhabituelle.

Referrer et trackback spam

Certaines pages publient les dernières pages qu'un visiteur a utilisées pour accéder à sa propre page. Même sans lien, vous pouvez simuler cela et spéculer sur un lien de référence de la page cible. Il en va de même pour les trackbacks.

Wiki et bookmark spam

Les wikis et les services de signets sociaux mènent parfois aussi à un lien qui peut être suivi par les moteurs de recherche.

Avantages et inconvénients

L'avantage du Black Hat SEO est que les opérateurs de sites Web ont la possibilité d'atteindre une grande popularité de lien dans un court laps de temps et de faire un grand profit. De nombreux webmasters utilisent cette méthode parce que la détection des spams par les moteurs de recherche prend généralement un certain temps. La conséquence de l'utilisation de Black Hat SEO est une pénalité ou un bannissement de l'index Google.

Le grand inconvénient de Black Hat SEO est donc que les moteurs de recherche d'aujourd'hui reconnaissent généralement ces techniques très rapidement. Le préjudice financier d'une sanction du site Web est donc généralement plus grand que le bénéfice obtenu avec Black Hat SEO à court terme.

Les webmasters qui utilisent Black Hat SEO s'attendent généralement à être punis et l'inclure dans leur planification. Google punit un certain nombre de sites web. Les exploitants de sites Web utilisent ces informations et mettent en ligne d'autres sites Web ayant un contenu identique ou similaire. Cela augmente les chances qu'un ou plusieurs sites Web restent ou soient exclus de l'index par la suite.

Lutter contre le spam avec Google

Google essaie toujours avec des mises à jour de ses algorithmes comme le Panda Update de prendre des mesures intensives contre de telles techniques non autorisées. Panda Update, par exemple, a développé un algorithme conçu pour trouver le contenu dupliqué ou copié. Elle prend également des mesures contre les sites Web qui s'engagent dans le spamming de lien. La mise à jour de Penguin qui a suivi Panda a étendu l'algorithme encore plus contre le spam web.

White Hat SEO vs Black Hat SEO

En raison des nombreuses réglementations contenues dans les Google Webmaster Guidelines, il est difficile pour les exploitants de sites Web d'agir en toute impunité. Toute approche à la construction de liens artificiels pour améliorer les classements ou tenter d'augmenter la popularité des liens est une trahison de White Hat SEO. Afin de donner plus de marge de manœuvre à l'exploitant du site Web, des gradations sont donc effectuées dans le degré d'infraction. Il ne s'agit ni d'une optimisation des moteurs de recherche entièrement conforme aux directives, ni d'une violation des directives. Cette zone de transition est marquée par le terme Grey Hat SEO. De nombreux sites Web de l'industrie du référencement entrent dans cette catégorie. Cependant, les perspectives de succès durable ne sont pas nécessairement positives. Parce que qui met sur cette zone grise, met sur l'incompétence (encore) existante des machines de recherche. Comme ceux-ci améliorent leurs algorithmes de plus en plus rapidement, ce n'est généralement qu'une question de temps avant que les "techniques du chapeau gris" ne deviennent également inefficaces.