Les pratiques risquées en SEO

ranking

Le Black Hat SEO consiste à ne pas respecter les guidelines de Google et mettre en place des techniques visant à manipuler l’algorithme du moteur de recherche comme l’établissement de liens non naturels.

Les guidelines de Google

rankingVous voulez donc échanger des liens avec d’autres sites web afin d’obtenir un meilleur classement dans les moteurs de recherche ? Vous voulez donc créer des centaines de pages auto-générées, riches en mots-clés pour votre site ?
Avant de vous rendre sur chaque site Web qui est prêt à échanger des liens, il serait une bonne idée de savoir où ne pas faire le lien. Parfois, cela peut signifier de ne pas créer de liens vers vos propres sites.
Tout d’abord, jetons un coup d’œil à la page des directives pour les webmasters de Google qui dit :
« Ne participez pas à des schémas de liens conçus pour augmenter le classement ou le PageRank de votre site. En particulier, évitez les liens vers des spammeurs ou des « mauvais quartiers » sur le web, car votre propre classement peut être affecté négativement par ces liens ».
Je sais que Google n’est pas responsable de tout le trafic des moteurs de recherche, mais c’est un bon guide à suivre parce que d’autres moteurs semblent suivre dans le même sens.

Qu’est-ce qu’un spammeur web ?

Un spammeur web est quelqu’un qui crée des centaines ou des milliers de pages riches en mots-clés afin de créer l’illusion d’un site thématique avec des pages connexes. Ces sites peuvent être composés de pages de redirection sournoises, de pages de porte, de pages de passerelle et maintenant la dernière mode semble être les répertoires générés automatiquement. Les cercles de référencement appellent ces types de pages « l’encombrement des moteurs de recherche ».

Le spammeur Web professionnel

Le spammeur web averti et professionnel place l’encombrement des moteurs de recherche sur un domaine secondaire et recherche des partenaires de liens. Si vous échangez des liens avec ces webmasters, vous risquez une pénalité si l’un de ces sites est interdit.
Ces sites sont créés sur des domaines jetables (secondaires) et ils sont tous liés ou redirigés vers un site de vente principal qui ne renvoie pas vers les pages spam. Habituellement, tous les domaines secondaires sont reliés entre eux.
Ce professionnel sait tout ce qu’il faut savoir sur la non-utilisation des modèles de pages Web standard fournis avec le logiciel de génération d’annuaire automatique. Ce webmaster est assez intelligent pour se rendre compte que les modèles communs seront faciles à détecter par les moteurs de recherche, ce qui signifie que le site web spam sera interdit très rapidement. Ce webmaster reconstruira les pages à partir de zéro, ce qui est généralement un bon moyen d’éviter la pénalité.

Le spammeur Web amateur

Le spammeur web amateur, avide de classement élevé dans les moteurs de recherche achètera un logiciel qui crée de l’encombrement dans les moteurs de recherche et fera l’erreur de ne pas créer un domaine jetable pour servir ces nouvelles pages et il utilisera les modèles de base faciles à détecter pour générer le site web.
Ils téléchargent ces pages sur leur site principal et créent un lien vers eux. Le problème avec ceci est que si un moteur de recherche perçoit ces pages auto-générées comme du spam, il pénalisera le site qui y renvoie et supprimera l’encombrement de l’index.
Parfois, ces sites ne sont pas détectés immédiatement, ce qui signifie qu’ils pourraient avoir une quantité décente de Page Rank, mais est-ce que cela vaut la peine de prendre ce risque ? Votre plus grand défi sera de développer la capacité de détecter ce type de pages à l’œil nu.

Le cloaking ou la dissimulation

En référencement, l’occultation est un ensemble de techniques de dissimulation par lesquelles le serveur ou la programmation d’un site Web est configuré pour présenter un contenu aux utilisateurs différent de celui qu’il présenterait aux robots des moteurs de recherche, dans le but d’obtenir une meilleure position pour certains mots clés.

Le camouflage est une technique connue sous le nom de black-hat parce qu’elle ne respecte pas les directives de qualité de Google pour les webmasters, dans lesquelles il spécifie que votre robot ou votre araignée doit toujours accéder exactement au même contenu que les utilisateurs peuvent voir quand ils visitent le site Web.

Techniques utilisées pour l’occultation

Certaines des techniques traditionnellement utilisées pour dissimuler le contenu consistaient à configurer le serveur de telle sorte que, selon le navigateur qui a fait la demande de la page, le contenu réel ou le contenu créé spécifiquement pour tenter de tromper le moteur de recherche serait retourné. Cette configuration a été détectée lorsque c’est le robot Google -Googlebot- qui a demandé la page via l’user-agent en utilisant cette spécification pour discriminer entre les visites humaines et celles des moteurs de recherche.

D’autres techniques de dissimulation de contenu optimisé impliquaient l’utilisation de redirections JavaScript qui pouvaient afficher un contenu différent dans le navigateur de l’utilisateur que pour les moteurs de recherche (qui jusqu’à récemment n’exécutaient pas ce code), la livraison d’un contenu différent selon l’origine IP de la requête ou l’utilisation d’un Meta Refresh pointant vers une URL différente de l’originale avec un temps d’action (attribut contenu) voisin de 0 secondes.

L’utilisation de certaines de ces techniques est facilement détectable en vérifiant le contenu que nous obtenons si nous naviguons sur le site Web avec Javascript désactivé ou sans accepter les cookies en utilisant des extensions de navigateur telles que Web Developer.

Cloaking dans le référencement actuel

Actuellement, les techniques utilisées pour l’occultation sont en désuétude dans le référencement en raison de la facilité avec laquelle les moteurs de recherche sont capables de détecter l’utilisation des techniques utilisées pour l’effectuer, ainsi que du fait que le contenu sur-optimisé -contenu avec une grande concentration de mots clés- est de plus en plus facilement identifié et pénalisé.

Les robots utilisés par les moteurs de recherche sont maintenant capables d’exécuter du code Javascript et de faire des comparaisons entre la façon dont les pages sont perçues par les utilisateurs humains et comment elles sont interprétées par les moteurs de recherche. Avec la fonctionnalité >Track as Google de la console de recherche Google, nous pouvons vérifier si notre serveur ou notre application Web utilise une technique de masquage.

Penser comme Googlebot pour détecter l’occultation

Lorsque le HTML dynamique est utilisé comme solution pour servir un contenu optimisé pour les terminaux mobiles, Google indique qu’un en-tête HTTP doit être inclus qui spécifie que le code du serveur varie en fonction du navigateur (user-agent) afin que le moteur de recherche sache que nous n’essayons pas d’occulter.

Le SEO compulsif

Le praticien obsessionnel compulsif de SEO ira à n’importe quelle longueur pour obtenir les rangs supérieurs de Search Engine rapidement. C’est un peu comme la fièvre de l’or. L’insecte mord et il devient difficile de se défaire de cette folie.
Ce webmaster est toujours à la recherche d’un moyen plus facile et plus doux. L’illusion est forte. La folie s’est emparée du référencement obsessionnel compulsif et obsessionnel. En fin de compte, quand ils en ont marre d’être bannis, ils jurent de ne plus faire de marketing sur Internet en prétendant que tout le monde dans l’industrie est un artiste escroc.
Le problème, c’est qu’ils ont été exposés à des déchets avant de découvrir les bonnes choses. Elles ont été commercialisées par quelqu’un en qui elles avaient confiance et elles ont fini par perdre beaucoup de temps. (et je veux dire beaucoup de temps)