Dans un Google Webmaster Hangout, John Mueller de Google a répondu aux questions suivantes : quelles sont les pages à faible trafic à ne pas indexer et celles dont il ne faut pas s’inquiéter.
Les pages à faible trafic sont-elles nuisibles ?
Il est généralement admis que c’est une bonne idée de supprimer les pages peu performantes. Les pages de faible qualité ont tendance à attirer peu de trafic et doivent être soit non indexées, soit supprimées complètement.
C’est sur ce point que porte la question à laquelle John Mueller a répondu.
La question porte spécifiquement sur un site d’information, mais la réponse de Mme Mueller s’étend à d’autres sites que les sites d’information.
Voilà la question :
Nous publions des nouvelles et des articles.
Par exemple, nous avons 100 nouveaux articles chaque jour et dix d’entre eux nous donnent 95 % du trafic de recherche organique. Les 90 autres ne vont nulle part.
Nous craignons que Google puisse décider que notre site n’est intéressant que pour 10 %.
L’idée est de cacher certaines nouvelles locales ennuyeuses sous la balise noindex afin d’améliorer la qualité globale de tous les contenus de publication.
Qu’en pensez-vous ?
PUBLICITÉ
CONTINUER LA LECTURE CI-DESSOUS
Comment Google analyse la qualité des sites web
M. Mueller de Google explique d’abord comment l’algorithme de Google examine les pages web et l’ensemble du site afin de comprendre le niveau de qualité.
Sa réponse était d’ordre général, ce qui signifie qu’elle s’applique indépendamment du fait qu’il s’agisse d’un site d’information ou de tout autre type de site.
C’est ce qu’a dit Mueller :
En général, nous examinons le contenu par page.
Et nous essayons aussi de comprendre le site dans son ensemble, de comprendre à quel point ce site fonctionne bien, c’est quelque chose que les utilisateurs apprécient. Si tout fonctionne essentiellement comme il le devrait, c’est que
Il n’est donc pas complètement hors de question de réfléchir à tous vos contenus et de penser à ce que vous voulez vraiment faire indexer.
Maintenant, Mueller se concentre sur les sites d’information.
Il affirme que le trafic n’est pas nécessairement la mesure à utiliser pour juger si une page web d’information est de mauvaise qualité.
PUBLICITÉ
CONTINUER LA LECTURE CI-DESSOUS
Mueller :
Mais surtout avec un site d’information, il semble assez normal que vous ayez beaucoup d’articles intéressants pour une courte période, qui sont peut-être plus un instantané au jour le jour pour une région locale.
Et il est assez normal qu’elles ne deviennent pas de grandes histoires populaires sur votre site web.
Donc, de ce point de vue, je ne qualifierais pas nécessairement ces articles d’articles de mauvaise qualité, par exemple.
Ainsi, ce n’est pas parce qu’un article n’est pas populaire qu’il est de mauvaise qualité.
John Mueller donne ensuite des conseils sur la manière de savoir quand le contenu est vraiment de mauvaise qualité.
Il souligne des problèmes tels que les contenus difficiles à lire, l’anglais défectueux et les contenus mal structurés. Il explique ensuite ce qu’il faut faire si vous avez un mélange de contenu de bonne et de mauvaise qualité.
C’est ce qu’il a dit :
D’un autre côté, si vous publiez des articles de … des centaines d’auteurs différents et qu’ils sont de qualité variable et que certains sont vraiment mauvais, ils sont assez difficiles à lire, ils sont mal structurés, leur anglais est cassé.
Et certains d’entre eux sont des œuvres d’art de très haute qualité, presque que vous fournissez. En créant ce genre de mélange sur un site web, il est très difficile pour Google et pour les utilisateurs de comprendre qu’en fait, vous avez beaucoup de joyaux sur votre site web…
C’est donc dans cette situation que je dirais que nous devons fournir une sorte de filtrage de qualité, ou une sorte de barre de qualité à l’avance, afin que les utilisateurs et Google puissent reconnaître, c’est vraiment ce pour quoi je veux être connu.
Et ce sont toutes ces choses, peut-être des contenus soumis par les utilisateurs, que nous publions parce que nous travaillons avec ces personnes, mais ce n’est pas ce pour quoi nous voulons être connus.
Dans ce cas, on peut se dire que je vais peut-être ne pas les répertorier, ou que je vais d’abord ne pas les répertorier jusqu’à ce que je constate qu’ils se portent vraiment bien.
Pour cela, je pense qu’il est logique que vous fournissiez une sorte de filtrage de qualité.
Mais si c’est un site d’information, où… par définition, vous avez une variété d’articles différents, ils sont tous bien écrits, ils sont raisonnables, juste que les sujets ne sont pas si intéressants à long terme, c’est un peu normal.
Je ne dirais pas qu’il faut bloquer l’indexation de ce genre de choses. Parce que ce n’est pas un contenu de mauvaise qualité. C’est juste un contenu moins populaire.
John Mueller a fait une remarque importante sur le diagnostic de la qualité d’un article. Il a essentiellement dit d’examiner le contenu lui-même pour déterminer si la raison du faible trafic est que le contenu n’est pas populaire ou si l’article est mal écrit.
Ce n’est pas parce qu’une page web n’est pas populaire qu’elle est de mauvaise qualité. Un tel contenu ne sera pas mal perçu sur un site.
Un faible trafic peut être un signal d’alarme pour vous alerter d’un éventuel problème. Mais ce n’est pas le problème en soi.
Examinez le contenu et déterminez si le faible trafic est dû au fait que :
- Les informations de la page web sont dépassées (pas bonnes, devraient être améliorées)
- La page web est mince (pas bien)
- La page web traite d’un sujet qui n’est pas populaire (ce n’est pas grave)
Regardez le site de Google sur les heures d’ouverture du bureau central.