Un type d’outils relativement nouveau analyse les pages de résultats des moteurs de recherche (SERP) et fournit des recommandations basées sur l’analyse statistique des similitudes partagées entre les sites les mieux classés. Mais certains membres de la communauté de recherche ont des doutes sur l’utilité de ce type d’outil.
Analyse de corrélation SERP et absence de causalité
Ce type d’analyse est appelé analyse de corrélation des pages de résultats des moteurs de recherche (SERP). L’analyse SERP est une recherche qui analyse les résultats de recherche Google pour identifier les facteurs dans les pages Web classées.
La communauté SEO a trouvé des corrélations surprenantes dans le passé en étudiant les résultats de recherche.
Une analyse a révélé que les sites les mieux classés avaient tendance à avoir des pages Facebook avec beaucoup de likes.
Bien sûr, ces sites les mieux classés n’étaient pas les mieux classés en raison des likes Facebook.
Le fait que les sites les mieux classés partagent certaines fonctionnalités ne signifie pas que ces fonctionnalités les ont améliorés.
Et ce manque de réel cause entre les facteurs communs et les raisons réelles pourquoi ces sites sont les mieux classés peut être considéré comme un problème.
Publicité
Continuer la lecture ci-dessous
Le fait que les pages Web classées dans les résultats de recherche partagent un nombre de mots, une densité de mots clés ou partagent des mots clés en commun ne signifie pas que ces nombres de mots, ces densités de mots-clés et ces mots-clés sont à l’origine du classement de ces pages.
Les SERPs ne sont plus dix liens bleus
Un autre problème lié à l’analyse des dix premiers résultats de la recherche est que les résultats de la recherche ne sont plus une liste de dix pages Web classées, les dix liens bleus.
Bill Slawski (@bill_slawski) de GoFishDigital a exprimé peu de confiance dans l’analyse de corrélation des résultats de recherche.
Il a dit,
« Les données des études de corrélation peuvent être nettoyées afin que les One Boxes et les Snippets en vedette n’y apparaissent pas, mais cela fait longtemps que nous ne vivons pas dans un monde de dix liens bleus. »
Analyse trompeuse?
J’ai demandé à une entreprise d’optimisation de contenu basée sur l’IA (@MarketMuseCo) sur les outils d’analyse SERP.
Ils ont répondu:
«Les outils d’optimisation de contenu qui grattent les SERP et utilisent des calculs de fréquence des termes pour vous dire sur quoi écrire sont au mieux trompeurs.
La plupart de ces outils vont extraire le contenu des 10 à 30 premiers résultats de recherche, extraire les termes courants et évaluer leur pertinence à l’aide de Google AdWords Keyword Planner de l’API publique de Google.
L’ajout de mots à votre contenu à partir de ces types d’outils ne mènera jamais à un contenu complet et rédigé de manière experte qui, avec le temps, deviendra un avantage concurrentiel pour votre entreprise. »
Publicité
Continuer la lecture ci-dessous
Outils d’analyse SERP et mots-clés LSI
Certains de ces outils d’analyse SERP font la promotion de concepts obsolètes tels que les mots clés LSI comme étant importants pour le classement dans Google.
C’est un concept bien connu pour avoir peu de pertinence pour le classement dans les résultats de recherche de Google.
Les mots-clés LSI n’existent pas – quiconque vous dit le contraire se trompe, désolé.
– 🍌 Jean 🍌 (@JohnMu) 30 juillet 2019
Avis des utilisateurs sur l’outil d’analyse SERP
Nigel Mordaunt, directeur chez Charlotte, NC Search Consultancy, Status Digital Group (@StatusCLT), m’a dit qu’il avait essayé les outils d’analyse SERP et qu’il n’était pas satisfait des résultats.
Il a offert son opinion sur ces outils en fonction de son expérience pratique:
«L’utilisation de ces outils ne favorise pas la satisfaction des lecteurs, ce qui, je pense, est au cœur du référencement sur page. Il favorise davantage un style de contenu imitant les 1 000 autres sites de votre niche. »
Jeff Ferguson (@CountXero), un marketeur avec plus de 20 ans d’expérience, Partner / Head of Production, Amplitude Digital (@AmplitudeAgency) et professeur adjoint, l’UCLA a offert son opinion sur la base de sa propre expérience avec ce type d’outils.
Jeff a commenté:
«J’ai déjà joué avec quelques-uns de ceux-ci, et je peux voir l’attrait; cependant, trop souvent, leur raisonnement pour faire certaines choses est basé sur des mythes SEO, des informations obsolètes ou tout simplement inventé.
La plupart d’entre eux sont excellents pour compter les mots du contenu d’un mot clé donné, mais le nombre de mots n’est pas un facteur de classement. D’autres proposent des éléments tels que les « Mots clés LSI », qui n’existent pas réellement dans l’univers de Google. «
Plus de données ne vous donnent pas de meilleurs résultats
Certains de ces outils analyseront plus que les dix premiers résultats de recherche. Ils peuvent analyser les 30 premiers et plus.
Mais plus de données ne se traduisent pas par une meilleure analyse. L’idée que plus de données donneront une meilleure analyse est une idée fausse courante.
Selon Michael Grogan, consultant en science des données, écrit dans TowardsDataScience.com:
«Plus de données n’est pas mieux si une grande partie de ces données n’est pas pertinente par rapport à ce que vous essayez de prédire. Même les modèles d’apprentissage automatique peuvent être induits en erreur si l’ensemble de formation n’est pas représentatif de la réalité.
… L’inclusion de certaines données est-elle pertinente par rapport au problème que nous essayons de résoudre? … Il ne faut pas supposer que l’introduction aveugle de plus de données dans un modèle améliorera sa précision. »
Publicité
Continuer la lecture ci-dessous
Wikipedia a une entrée sur l’exactitude et la précision, où l’exactitude concerne la proximité d’une expérience ou d’une analyse par rapport à la vérité et la précision est la reproductibilité des résultats, que les résultats soient exacts ou non.
«Par exemple, si une expérience contient une erreur systématique, l’augmentation de la taille de l’échantillon augmente généralement la précision mais n’améliore pas la précision. Le résultat serait une série cohérente mais inexacte de résultats de l’expérience défectueuse. «
La précision est un problème avec l’analyse SERP dans la mesure où l’analyse typique ne tient pas compte de toutes les variables responsables du classement d’une page Web dans les résultats de recherche.
La raison pour laquelle ils ne tiennent pas compte de toutes les variables est que personne en dehors de Google ne sait quelles sont ces variables.
L’analyse des résultats de recherche donne des résultats erronés
L’analyse des résultats de recherche a toujours donné des résultats douteux. On peut analyser les résultats et dégager quelque chose comme une intention de recherche possible.
Mais prétendre identifier les facteurs responsables du classement d’un site est discutable.
Publicité
Continuer la lecture ci-dessous
J’ai mentionné à Bill Slawski que j’écrivais sur les outils d’analyse SERP et il a plaisanté:
«J’ai ri de la tête après avoir lu le site Web —–. Le nombre de mots n’a jamais été un signal de classement chez Google. Aucun des deux n’a de densité de mots clés. »
Chacun a son avis sur ce type d’outil. Certaines personnes peuvent y trouver de la valeur.
C’est à vous de rechercher et de déterminer si ce type d’outil vous est utile.