Mueller de Google sur le taux d’exploration pour les grands et petits sites

0
36


John Mueller de Google a demandé à la communauté SEO pourquoi les gens manquent l’outil de soumission d’URL. Une personne a déclaré que les petits sites sont désavantagés parce que les sites plus importants sont explorés plus fréquemment. John Mueller a partagé des informations sur la manière dont Google explore les sites.

Les grands sites sont-ils explorés plus fréquemment?

Il est possible que les sites Web populaires et les plus fréquemment liés soient explorés plus souvent. Les liens font partie du processus d’exploration, car Googlebot explore de lien en lien.

Il n’est donc pas déraisonnable de supposer que les sites populaires sont explorés plus fréquemment que les sites moins populaires.

Voici Question initiale de John Mueller:

«J’ai vu des gens qui attendaient avec impatience le retour de l’outil de soumission d’URL. Je n’ai pas de nouvelles, mais j’aimerais en savoir plus sur les raisons pour lesquelles vous les manquez.

Faites-moi savoir pour quelles URL vous manquez l’outil et comment vous l’avez généralement utilisé. Merci! »

Publicité

Continuer la lecture ci-dessous

Et le l’éditeur a répondu:

«@JohnMu,
vous savez que les robots d’exploration ne visitent pas les petits sites Web aussi souvent que les grands. Ainsi, pour toute mise à jour sur les pages clés et indexation plus rapide, nous dépendons de l’outil de soumission d’URL. En supprimant l’accès à l’outil, vous favorisez les grands sites Web et frappez fort sur les petits. »

John Mueller a répondu cette exploration est indépendante de la taille d’un site Web.

Publicité

Continuer la lecture ci-dessous

«L’exploration est indépendante de la taille du site Web. Certains sites ont des milliards d’URL (inutiles) et, heureusement, nous n’en explorons pas beaucoup. Si vous avez un exemple de votre site où vous rencontrez des problèmes, n’hésitez pas à l’ajouter au formulaire. « 

La personne qui pose la question a déclaré que certaines plateformes de publication ne mettent pas automatiquement à jour leurs plans de site.

Ce à quoi John Mueller a suggéré que la mise à niveau de la plate-forme afin qu’elle mette à jour automatiquement le plan du site est la solution la plus simple.

Réponse de Mueller:

«Il existe encore des sites qui n’utilisent pas de sitemaps? Cela semble être une solution beaucoup plus simple que de soumettre manuellement chaque URL nouvelle ou mise à jour…

… On dirait quelque chose à réparer dans ce cas :). Les soumissions manuelles ne sont jamais évolutives, assurez-vous que cela fonctionne automatiquement.

… .Créer automatiquement un fichier de plan de site semble être une base minimale pour tout site Web sérieux, imo. »

Grand site et site populaire

Je pense que ce qui a été oublié dans l’échange ci-dessus, c’est ce que l’éditeur voulait dire quand ils ont dit qu’un «gros site» était exploré plus souvent. John Mueller a répondu à la question littéralement en termes de nombre de pages contenues dans un site.

Il n’est peut-être pas déraisonnable de supposer que ce que l’éditeur a pu signifier était qu’un site qui était plus populaire avait un avantage sur un site plus petit qui n’avait pas autant de liens.

Pourtant, la référence de Mueller à des sites plus grands (et parfois plus populaires) contenant des URL inutiles est un bon point. Cela implique que les sites plus petits sont plus faciles et plus efficaces à explorer et, en effet, si vous pouvez afficher les journaux d’exploration, Google semble visiter assez fréquemment des sites plus petits et moins populaires.

Publicité

Continuer la lecture ci-dessous

Si des jours ou des semaines passent sans que Google découvre certaines de vos pages, c’est quelque chose qui pourrait être aidé par un plan du site. Mais cela pourrait aussi être le signe de problèmes plus profonds en ce qui concerne la qualité du contenu ou des liens.



tout savoir sur la crypto