Un éditeur a déclaré à John Mueller, de Google, que la Google Search Console (GSC) a fait état de plus de cinq cents pages de référence provenant de deux domaines. Ces renvois sont corrélés à une baisse de trafic de 50 %. John Mueller, de Google, a commenté la corrélation entre les liens de référence et une baisse du trafic.
L’éditeur a indiqué que le SGC a montré des références de deux domaines totalisant jusqu’à quatre liens vers chaque page de son site. En visitant ces pages, l’éditeur a vu qu’elles étaient vides, qu’il n’y avait pas de contenu sur ces pages.
Ils ont déclaré que l’apparition de ces liens de renvoi était corrélée à une baisse de 50 % du trafic.
a demandé l’éditeur :
« …est-ce un scénario dans lequel l’outil de désaveu a un sens ou est-ce que Google les détecte comme étant contre nature et les ignore en tant que signal de classement ? »
John Mueller, de Google, a commenté le mystère des pages « vides » et ce qu’elles pourraient être :
« Il est vraiment difficile de dire ce que vous voyez ici. Il est certainement possible qu’il y ait des pages qui montrent une page vide aux utilisateurs et ensuite une page pleine à Googlebot ».
PUBLICITÉ
CONTINUER LA LECTURE CI-DESSOUS
C’est une référence à une page qui montre une page à Google et une autre à tous les autres. Cette pratique est appelée « cloaking ».
Mueller explique que la possibilité que la page soit masquée. Il s’agit d’une explication de ce que l’éditeur pourrait voir et ne pas aborder la deuxième édition du classement.
M. Mueller poursuit en rejetant les pages de référence comme des erreurs techniques plutôt que comme une tentative malveillante de saboter le classement de l’éditeur.
Il a dit :
« De ce point de vue, j’ignorerais simplement ces pages. »
Il a ensuite suggéré d’inspecter les pages avec le test Mobile Friendly de Google pour voir à quoi ressemble la page quand GoogleBot la voit. C’est un test de dissimulation, pour voir si une page montre une page à Google et une autre page aux visiteurs non-Googlebot.
Mme Mueller a ensuite commenté la corrélation entre les liens de référence et la baisse de 50 % du trafic :
« Je ne pense pas que ce soit quelque chose que vous devez désavouer.
Cela paraît probablement bizarre dans le rapport sur les liens, mais je ne m’inquiéterais vraiment pas pour ça.
En ce qui concerne la baisse du trafic que vous observez, de mon point de vue, cela n’aurait probablement aucun rapport avec ces liens.
Il n’y a pas de situation réelle… où je pourrais imaginer que des pages essentiellement vides poseraient un problème en ce qui concerne les liens.
Donc, j’ignore tout cela.
Si vous décidez de les mettre dans le fichier disavow de toute façon… gardez juste à l’esprit que cela n’affecterait pas la façon dont nous affichons les données dans la console de recherche. Le rapport des liens continuera donc à les afficher.
Je ne pense pas qu’il y ait de raison d’utiliser un fichier de désaveu dans ce cas particulier. Je les laisserais donc tels quels ».
PUBLICITÉ
CONTINUER LA LECTURE CI-DESSOUS
Qu’a vu l’éditeur ?
Ce que l’éditeur a vu est un phénomène ancien et courant appelé spam de recommandation. La raison initiale du spam de recommandation était que, au début des années 2000, certains programmes d’analyse gratuits ont publié des listes de références sous forme de liens.
Cela a créé la possibilité de spammer un site avec de fausses références du site de spam vers un autre site afin de créer un lien à partir de la page d’analyse publique.
Cette page d’analyse n’a pas été liée à une autre page d’un site. Elle existait simplement à une URL générée automatiquement.
La plupart des sites n’ont plus ces pages d’analyse. Mais la pratique se poursuit, peut-être dans l’espoir que si un nombre suffisant d’éditeurs cliquent sur les liens, Google y verra une forme de popularité qui améliorera leur classement.
Ce que l’éditeur dans ce hangar regardait probablement était une référence fabriquée.
Le référent n’était pas réel. Même le lien n’existait pas. C’est typiquement le cas dans le spam de référence.
Le référent spamme-t-il les classements ?
Je n’ai jamais publié un site qui n’attirait pas les spams de référence. Le spam de référence n’a pas eu d’effet sur mon classement.
Le spam de référence est très courant. C’est vraiment un problème qui ne se pose pas.
La raison pour laquelle le site de l’éditeur a perdu cinquante pour cent de son classement réside dans une autre explication.
Regardez le Google Webmaster Hangout :