qwanturank

Inutile de dire que les principales mises à jour de Google peuvent faire ou défaire un site. Mais et si les mises à jour principales se stabilisaient ? Qu’est-ce que cela signifierait pour les sites et pour les référenceurs qui y travaillent ? L’« ère de la mise à jour de base » moderne a produit certains des changements algorithmiques les plus notables que l’industrie du référencement ait jamais vus. Vous pourriez affirmer que les mises à jour ont changé la nature même de la conversation que l’industrie a eue autour de choses comme la qualité des pages et des sites (ne cherchez pas plus loin que l’accent renouvelé sur E-A-T). À chaque nouveau déploiement, l’industrie du référencement se ronge les ongles dans une anticipation nerveuse car, historiquement parlant, les mises à jour ont bouleversé les classements. Mais est-ce toujours vrai, au moins dans la même mesure ? Les principales mises à jour que Google publie aujourd’hui sont-elles aussi puissantes que les mastodontes des années passées, telles que Medic Update de 2018 ? Ayant personnellement suivi ces mises à jour depuis mars 2018, mon intuition est que les changements apportés plus récemment par Google contiennent moins de chaleur. Pour le savoir, j’ai analysé les niveaux de volatilité des classements de chaque mise à jour principale depuis la tristement célèbre Medic Update. Voici ce que j’ai trouvé…

Analyse de la mise à jour principale : ce qui a été analysé et ce qui a été trouvé

Malgré ce que vous pouvez penser, c’est ici la partie la plus importante de l’étude. Sans comprendre ce qui a été analysé et comment il a été analysé, il n’est pas possible d’avoir suffisamment de contexte pour appliquer correctement quoi que ce soit. Personnellement, c’est une bête noire pour moi que les études de référencement ne discutent pas correctement de leurs limites. Comprendre les limites et les « frontières » conceptuelles d’une étude est essentiel pour pouvoir l’utiliser efficacement. Sur ce, plongeons rapidement dans les données que j’ai analysées ainsi que dans certaines des conclusions de haut niveau. (Si vous voulez vous lancer directement, ce que je ne recommande pas, vous pouvez bien sûr faire défiler jusqu’au prochain H2).

À propos des données analysées

Pour commencer, cette étude ne remonte qu’aussi loin que les mises à jour de base «modernes». Les mises à jour de base existent bien avant qu’elles ne deviennent une « chose ». De vastes mises à jour des algorithmes de base ont été publiées par Google plusieurs fois par an bien avant que Google ne commence à les confirmer en mars 2018. Maintenant, j’ai commencé mon analyse non pas avec la mise à jour de base de mars 2018, mais avec la mise à jour Medic d’août 2018. Je l’a fait parce que la mise à jour Medic est presque symbolique de l’ère moderne du référencement. Avec la mise à jour, de nombreux leaders d’opinion du secteur ont commencé à remarquer de nouveaux modèles concernant la façon dont Google profile la qualité des sites et des pages. C’est vraiment la mise à jour Medic qui a mis l’accent sur Your Money Your Life (YMYL) et E-A-T. Ainsi, malgré le fait que la mise à jour de mars 2018 ait été la première à être confirmée par Danny Sullivan de Google, j’ai choisi de commencer cette analyse avec la mise à jour Medic. Voici la liste complète des principales mises à jour qui ont été analysées dans cette étude :

  • La mise à jour du médecin
  • La mise à jour principale de mars 2019
  • La mise à jour principale de septembre 2019
  • La mise à jour de base de janvier 2020
  • La mise à jour principale de mai 2020
  • La mise à jour principale de décembre 2020
  • La mise à jour principale de juin 2021
  • La mise à jour principale de juillet 2021
  • Pour chacune de ces mises à jour, nous avons enregistré les niveaux de volatilité tels qu’ils apparaissent dans le capteur Semrush. Le problème est que le capteur note le niveau de volatilité observé chaque jour avec quelque chose qui ressemble à ceci : Le score que vous voyez ici est relatif à la période de volatilité précédente. Cela signifie que si vous aviez eu une période extrême de calme algorithmique, même un changement moindre serait considéré comme une « volatilité ». En d’autres termes, vous ne pouvez pas simplement dire : « Eh bien, la mise à jour Medic a obtenu un score de 9,9 sur le capteur et la mise à jour de base de mars 2019 a obtenu un score de 9,7 ; Par conséquent, la mise à jour Medic était « plus grande » (pour mémoire, ce ne sont pas les vrais numéros de capteur pour l’une ou l’autre mise à jour). » Pour contourner ce problème, nous avons mesuré le pourcentage de variation entre la période de stabilité précédant chaque mise à jour et la période de volatilité représentée par chaque mise à jour. Dans ce cas, nous ne regardons pas le nombre en soi (c’est-à-dire un niveau de volatilité de 9/10) mais plutôt l’augmentation de la volatilité par rapport à la période de stabilité qui l’a précédée. Ainsi, si lors d’une mise à jour les niveaux passaient de 2/10 à 4/10 alors que lors d’une autre mise à jour ils passaient de 5/10 à 10/10, les deux obtiendraient une augmentation de 100% de la volatilité. Pour mieux saisir la stabilité globale de chaque mise à jour, nous avons calculé les augmentations en comparant les trois jours de calme relatif avant la mise à jour aux trois premiers jours qui représentaient la mise à jour elle-même. C’est parce qu’une mise à jour, en règle générale, prend plus d’une journée à déployer. Maintenant, toutes les mises à jour ne sont pas identiques. Certaines mises à jour sont très volatiles pendant 3 à 4 jours, d’autres sont volatiles le premier jour mais pas tellement le deuxième, tandis que d’autres peuvent montrer de la volatilité pendant une période prolongée. Cette comptabilité de la façon dont les mises à jour peuvent être déployées n’a pas été prise en compte au niveau de la mise à jour. La même méthodologie a été appliquée à tous les niveaux. Enfin, toutes les industries qui composent les données vues dans le capteur ont été incluses dans l’analyse globale des mises à jour. Cela signifie qu’environ 25 000 mots-clés ont été analysés pour chaque mise à jour. Il y a eu des cas où j’ai spécifiquement analysé les tendances au sein de chaque industrie de niche. Je n’ai pas utilisé toutes les industries, mais je me suis concentré sur un groupe spécifique de niches. Je préciserai quand et pourquoi cela a été le cas au fur et à mesure de mon analyse.

    Résultats de données de haut niveau

    Avec une comptabilité appropriée du contexte des données « à l’écart », voici quelques-uns des points saillants des données de haut niveau :

  • L’augmentation moyenne globale de la volatilité du classement observée lors d’une mise à jour de base s’élève à 59,77%
  • Seules deux des mises à jour principales analysées ont produit des augmentations de volatilité de 100 % ou plus (les mises à jour principales de Medic et de septembre 2020)
  • Le niveau moyen de volatilité observé lors d’une mise à jour a diminué de 51,7% depuis la mise à jour de base de janvier 2020
  • La volatilité n’est toujours pas universelle. La volatilité des classements dans certaines des industries les plus importantes peut toujours rester incroyablement volatile malgré la diminution apparemment globale des fluctuations de classement.
  • Bien sûr, toutes ces données doivent être discutées, expliquées et qualifiées – c’est exactement ce que j’ai l’intention de faire !

    Les données indiquent une diminution possible de la puissance de mise à jour de base

    Le point de départ le plus logique est, bien sûr, la volatilité totale au fil du temps. Pour cela, nous avons tiré les augmentations de la volatilité des classements pour chacune des mises à jour principales publiées par Google, en commençant par la mise à jour Medic et en terminant par la mise à jour la plus récente : la mise à jour principale de juillet 2021. Les augmentations de volatilité de rang observées lors de chaque mise à jour principale de Medic Update et surComme vous pouvez le voir, il y a une nette tendance à la baisse dans les augmentations de volatilité de rang affichées par les mises à jour principales au fil du temps. Même en excluant les deux seules mises à jour à afficher des augmentations de la volatilité des classements de 100 % ou plus (c’est-à-dire la mise à jour Medic et la mise à jour de base de septembre 2019), la tendance reste vraie. C’est-à-dire qu’à partir de la mise à jour de base de décembre 2020, il y a eu une tendance où les augmentations de volatilité tombent nettement en dessous de 50 %. Cependant, il y a une petite mise en garde concernant la tendance puisque Google a divisé la mise à jour de base de juin 2021 en deux parties (la première étant reflétée comme la mise à jour de base de juin 2021 et la seconde étant la mise à jour de base de juillet 2021). La question est de savoir ce qui se serait passé si Google avait publié les mises à jour de juin et de juillet ensemble, comme cela était initialement prévu ? Pourtant, il n’y a aucune raison de remettre en question l’augmentation de la volatilité de 40% observée lors de la mise à jour de base de décembre 2020. Cette mise à jour est toujours bien inférieure à la moyenne d’augmentation de la volatilité de 59,77% observée dans toutes les mises à jour et constitue clairement une divergence par rapport à la tendance de volatilité préexistante. Néanmoins, il existe plusieurs façons d’analyser cela. D’une part, vous pourriez chercher à faire une coupure avec la mise à jour de base de septembre 2019, car c’était la dernière fois que la volatilité des rangs augmentait de 100 % ou plus. Inversement, vous pourriez affirmer que le véritable changement dans les tendances des données commence avec la mise à jour de base de décembre 2020. Personnellement, je pense que la mise à jour de base de septembre 2019 représente une bonne ligne de démarcation car elle semblerait représenter la fin des mises à jour de base « monstrueusement volumineuses ». Même si je vois aussi le revers de la médaille. Pour cela, voici comment les chiffres se joueraient si vous deviez les analyser de différentes manières : La volatilité du classement augmente en fonction de divers regroupements de mises à jour de base, peu importe la façon dont vous les découpez, que vous regroupiez les mises à jour à partir de janvier 2020 et à partir de ou d’ici décembre 2020 et sur, les tendances de volatilité semblent indiquer que les mises à jour deviennent de moins en moins puissantes.

    Une tendance à des mises à jour d’algorithmes de base moins puissantes ?

    La question est : assistons-nous à une nouvelle tendance, ou est-ce une coïncidence ? Je ne travaille pas pour Google, il m’est donc impossible de dire avec une certitude totale si les tendances des données sont utiles ou non. Cependant, il n’en reste pas moins que nous n’avons pas vu de mise à jour de base avec une augmentation de 100% de la volatilité en près de deux ans. C’est un temps considérable. En ce qui concerne la diminution de la volatilité observée depuis la mise à jour de base de décembre 2020, mon intuition – basée sur l’étude des mises à jour pendant des années et en voyant ces données – est que les mises à jour sont devenues un peu moins puissantes au fil du temps. Plus loin dans cet article, j’explorerai pourquoi je pense que cela a beaucoup de sens afin d’ajouter un soutien supplémentaire à cette notion. Pour l’instant, continuons à passer au crible les données.

    La volatilité des classements au niveau de l’industrie reste toujours élevée

    Au-delà des tendances globales de volatilité des classements présentées par les mises à jour de base, l’une des choses qui m’intéressait était d’étudier comment les différentes industries de niche se sont comportées au fil du temps. Certaines industries sont-elles plus volatiles qu’auparavant ou vice versa ? Existe-t-il de nouveaux modèles au niveau de l’industrie qui correspondent aux tendances globales des données ? Pour ce faire, j’ai regardé les industries suivantes:

  • Livres et littérature
  • Immobilier
  • Voyager
  • Science
  • Maison et jardin
  • Nourriture et boisson
  • Achats
  • La finance
  • Santé
  • Il y a plusieurs raisons pour lesquelles j’ai choisi ces niches plutôt que d’autres. Fondamentalement, cela se résumait à deux critères. Premièrement, si l’industrie était YMYL (Santé, Finance et techniquement Shopping ainsi que Maison et Jardin, bien que les mots-clés de vente au détail ne soient pas les mêmes en termes de statut YMYL en ce qui concerne les mises à jour principales). Deuxièmement, la nature des mots-clés trouvés dans l’industrie. Par exemple, les livres et la littérature incluent de nombreux mots-clés basés sur des entités, tandis que la science contient de nombreux mots-clés d’information. Alors que je creusais dans les données au niveau de l’industrie, l’une des choses que j’ai remarquées, c’est que beaucoup des niches que j’ai choisies de travailler avec des niveaux de volatilité supérieurs à la moyenne. C’est-à-dire que leurs augmentations de volatilité étaient parfois considérablement plus élevées que la moyenne dans toutes les industries. (Bien sûr, il y avait des moments et des industries qui étaient également en dessous de la moyenne.) Voyant cela, j’ai calculé le pourcentage d’augmentation/diminution des différentes industries par rapport à la référence. Voici à quel point la volatilité des classements des secteurs était supérieure/inférieure par rapport à la référence dans toutes les mises à jour principales :
    Comme il est évident ci-dessus, les niches de la santé, de l’immobilier et des voyages sont incroyablement plus volatiles que la moyenne. Dans l’ensemble, toutes les niches analysées ont été 57,34% plus volatiles que la moyenne globale sur toutes les mises à jour principales. (Pour mémoire, je voudrais plonger dans le créneau de l’immobilier avant de tirer des conclusions à ce sujet, car je me demande si les changements d’annonces sont à l’origine d’une volatilité substantielle ici.) La question est : les industries les plus volatiles se rapprochent-elles à la volatilité moyenne observée globalement au fil du temps ? Sur la base de ce que nous avons déjà déterminé en ce qui concerne les mises à jour de Medic et de septembre 2019 étant de nature particulièrement volatile, on s’attend à ce que la volatilité au niveau de l’industrie soit également supérieure à la moyenne en examinant ces mises à jour. Les données ci-dessus montrent que, bien que ces industries particulières soient généralement plus volatiles que la moyenne, elles étaient environ 14% plus volatiles que « d’habitude » avec les trois premières mises à jour de base analysées. Ceci est encore une fois tout à fait attendu compte tenu de la volatilité des choses en août 2018 et septembre 2019. Lorsque j’ai analysé les mises à jour restantes (c’est-à-dire toutes les mises à jour de base à partir de janvier 2020), il semblait qu’il y avait une légère stabilisation avec les performances de l’industrie plus proche de la moyenne globale dans toutes les niches. Ces données refléteraient une augmentation de 18% de la stabilisation par rapport à la ligne de base par rapport aux chiffres indiqués par les trois premières mises à jour de base analysées. De plus, cela présenterait une augmentation de 8% de la stabilisation par rapport à la moyenne globale par rapport à l’ensemble complet des mises à jour de base.
    Cependant, si nous examinons uniquement les mises à jour de la mise à jour de base de décembre 2020 et plus, les chiffres racontent une histoire un peu différente : Dans l’ensemble, les industries spécifiques présentées ci-dessus n’étaient pas plus proches de la volatilité moyenne lorsque l’on regarde les mises à jour de décembre 2020 et activé (comme on pouvait s’y attendre) Lorsque vous supprimez effectivement la mise à jour principale de janvier 2020 du mélange, les secteurs représentés sont 59,18 % plus volatils que l’ensemble de données dans son ensemble, ce qui est un peu plus élevé que la moyenne observée dans toutes les mises à jour (c’est-à-dire 57,34 % ). Pour que cela soit un peu plus clair, voici à quel point ces niches étaient plus volatiles par rapport aux données globales selon différents regroupements des mises à jour. Contrairement à la tendance générale, les industries spécifiques étudiées n’ont pas affiché d’augmentation de la volatilité plus proche de la moyenne globale lorsque l’on regarde les mises à jour de décembre 2020 et sur Vous pouvez clairement voir que les tendances globales vers de moins en moins de volatilité ne se sont pas vérifiées. Si cela avait été le cas, les niches analysées n’auraient pas été 59,18 % plus volatiles que la moyenne globale à partir de décembre 2020, un chiffre plus élevé que celui de janvier 2020 inclus.
    Conclusion Les niches ne correspondent pas nécessairement au schéma global de baisse de la volatilité. Il existe encore des niches à la fois incroyablement volatiles et statiques dans leurs niveaux de volatilité globale. Ce n’est pas le cas que les niches soient devenues plus sourdes dans leur mouvement de rang conformément à la moyenne globale. La diminution de la volatilité de rang n’est pas uniforme. Si nous plongeons dans les tendances au sein de certaines des industries de niche, cela deviendra plus évident.

    Modèles d’industrie de niche à travers les mises à jour de base

    Les données ne sont aussi bonnes que les détails dont elles parlent. Au lieu de simplement parler des tendances au niveau de l’industrie, j’aimerais parcourir quelques-unes des industries afin que nous puissions mieux comprendre à quoi ressemble leur volatilité de mise à jour de base au fil du temps. Pour ce faire, je vais comparer les niveaux de volatilité observés au sein d’une industrie au cours des mises à jour de base à la volatilité moyenne globale enregistrée.

    Il n’y a pas de meilleur endroit pour commencer notre analyse par industrie qu’avec l’industrie de la santé. C’est la seule industrie à avoir une mise à jour principale nommée d’après elle (c’est-à-dire la mise à jour Medic). C’est la plus « YMYL » de toutes les niches YMYL (car un mauvais conseil ici peut en fait tuer des gens), et elle est au centre de la conversation E-A-T. Rien qu’en regardant les données, c’est aussi un très bon exemple de la façon dont les tendances globales de la volatilité ne s’appliquent pas au niveau de l’industrie. Le créneau de la santé était incroyablement volatile au cours des trois premières mises à jour principales que j’ai analysées. Pour le Medic et les Core Updates de septembre 2019, le créneau Santé a affiché nettement plus du double des niveaux de volatilité enregistrés dans l’ensemble. Pour nos besoins et du point de vue des tendances, l’industrie de la santé était 214% plus volatile que l’industrie moyenne lors de la mise à jour de base de décembre 2020. De plus, il a également affiché une augmentation de la volatilité de plus de 100%. N’oubliez pas que la mise à jour principale de décembre a été la première mise à jour à enregistrer des niveaux de volatilité inférieurs à 50 %. Pourtant, l’industrie de la santé était encore incroyablement secouée par la mise à jour. Entre parenthèses, le secteur de la finance (que je pourrais considérer comme le frère YMYL de la niche de la santé) a montré une tendance des données très différente. Étonnamment, le créneau Finance n’a jamais produit des niveaux de volatilité dépassant la moyenne globale de plus de 100 %. La plus grande divergence par rapport à la moyenne globale est survenue avec la mise à jour de base de septembre 2019, où le créneau était 60 % plus volatil que la moyenne. Cela ne veut pas dire qu’il n’y avait pas de niveaux extrêmes de volatilité. Cependant, dans toutes les mises à jour, le secteur de la finance a 28,46 % de volatilité en plus que la moyenne, ce qui n’est rien comparé aux 114,64 % du créneau de la santé.

    L’industrie du voyage est un autre bon exemple de volatilité qui n’est pas cohérente ni ne suit la tendance globale vers un mouvement de rang inférieur. En fait, l’industrie du voyage a affiché une volatilité de classement qui a dépassé 100 % de la moyenne globale au cours de 5 des 8 mises à jour que j’ai étudiées. . Le troisième cas a eu lieu lors de la mise à jour de base de janvier 2020, où le créneau n’était que 41 % plus volatil que la moyenne. Pourtant, lors de la Core Update de juillet 2021, l’industrie était beaucoup plus volatile que la moyenne (87 % de plus pour être précis). La même incohérence peut être trouvée dans l’industrie du livre et de la littérature, que j’ai encore choisie parce qu’elle est très fortement corrélée avec les entités. Il y a des fluctuations massives entre l’industrie affichant une volatilité supérieure à la moyenne et nettement inférieure à la moyenne. Le fait est que les tendances globales pointant vers une volatilité moindre ne s’appliquent pas à tous. Il est tout à fait possible qu’une mise à jour affiche beaucoup plus de volatilité au sein d’un créneau donné malgré les tendances générales contraires. Moins de volatilité, si c’est le cas, ne s’applique certainement pas à tous les niveaux.

    Cohérence de l’industrie de niche à travers les mises à jour de base

    Comme le montrent les données, des industries spécifiques se comportent différemment. Il n’y a pas de modèle universel derrière les mises à jour de base. Cependant, cela ne veut pas dire qu’il n’y a pas eu de cohérence entre les différentes industries au fil du temps. Par exemple, à l’exclusion de la mise à jour de base de juillet 2021, l’industrie de la maison et du jardin a toujours affiché une volatilité de classement inférieure à celle du créneau moyen. l’industrie (que j’ai incluse car elle reflète bien le contenu informationnel) affiche toujours une volatilité « un peu » supérieure à la moyenne. En fait, en dehors de deux exemples, il est entre 30 et 40 % plus élevé en moyenne. Il en va de même pour le créneau Shopping, qui en dehors de la Core Update de juin 2021, est généralement moins volatil que la moyenne et généralement compris entre 20 et 30 %. Soit dit en passant, cela témoigne clairement du fait que, bien que les achats au détail soient YMYL, l’algorithme le traite différemment de quelque chose comme le contenu de santé. Cela est tout à fait logique car les sites d’achat sont YMYL, non pas à cause du contenu en soi, mais parce que le paiement nécessite une carte de crédit. Le fait est que les incohérences entre les industries sont propres à chaque industrie, car chacune se comporte selon sa propre trajectoire.

    Pourquoi les mises à jour principales pourraient-elles être moins puissantes qu’auparavant ?

    Quelque chose a changé. L’ère moderne des mises à jour principales représente un changement radical dans l’algorithme. Ce changement fait sûrement l’objet d’un grand débat. À mes yeux, il s’agissait pour Google de mieux comprendre qualitativement le contenu d’une page et d’un site, ce qui correspond à de nombreuses avancées dans le traitement du langage naturel, etc. Pour moi, et pour beaucoup d’autres dans l’industrie, il y a eu un changement clair dans ce que Google est capable de faire lorsqu’il s’agit de comprendre un site. Une grande partie de ce que j’ai vu concerne le fait que Google soit mieux en mesure de profiler l’identité d’un site et donc de comprendre ce qui relève du champ d’application du site et ce qui ne l’est pas (et si le site est à la hauteur de son objectif). Il y a eu des cas où j’ai vu les mises à jour choisir un libellé qui véhiculait le mauvais « ton » ainsi que des cas où la pertinence est devenue beaucoup plus nuancée (à la disparition de certains « guides ultimes »). Quelle que soit la manière dont vous voulez le comprendre, il est clair que quelque chose a changé depuis la mise à jour Medic. Il est alors assez logique que les premières applications de ce changement soient les plus impactantes. (Ce qui, en regardant les données, se présente sous la forme de la mise à jour Medic et de la mise à jour principale de septembre 2019.) Avec la première application d’une « nouvelle capacité », il y a tout simplement plus à corriger. Au fur et à mesure que le temps passe et que Google a appliqué ses nouvelles capacités à davantage de sites et de pages de toutes nouvelles manières, l’impact global devrait, en théorie, diminuer de façon exponentielle. (Ce n’est pas un nouveau modèle et a été vu avec des choses comme RankBrain dans le passé.) Simplement, les changements nécessaires pour les classements sont moins drastiques car Google applique le « correctif » à plusieurs reprises. Cela ne veut pas dire que Google n’améliore pas ce qu’il peut faire actuellement. Bien sûr, Google l’est. Ce que je propose, c’est que 2018 représente un changement dans ce que Google peut et ne peut pas faire fondamentalement. Ce changement fondamental peut et a été affiné au fil du temps, mais jusqu’à ce qu’un autre changement fondamental se produise, l’impact de ces mises à jour se stabilisera au fil du temps (plus ou moins). Alors que davantage d’interactions de nouvelles mises à jour de base aideraient à déterminer si la tendance actuelle est en effet un modèle vraiment concret, il y a déjà beaucoup de logique derrière ce que nous voyons jusqu’à présent.

    Le calme avant la tempête?

    Je pense qu’il y a une sous-accentuation générale sur le fait de savoir à quoi ressemble l’écosystème actuel sur le SERP. Si ce que les données ont montré jusqu’à présent, cela pourrait signifier que nous traversons ce qui devrait être une période particulièrement calme au sein du référencement. (Je dirais pour profiter du calme, mais une telle affirmation est complètement ironique à bien des égards car la « stabilité » est très relative et dénuée de sens pour un site impacté par une mise à jour). Déjà, cependant, on pourrait dire que tout calme relatif ne durera pas très longtemps, tout compte fait. Google a déjà appliqué MUM au monde réel, ce qui à lui seul pourrait changer fondamentalement le SERP. Dans le même temps, qui sait ce que Google a dans sa manche alors qu’il continue d’expérimenter des modèles d’apprentissage incroyablement complexes ?

    Les mises à jour principales de Google deviennent-elles moins puissantes?

    S’abonner
    Notification pour
    guest

    0 Commentaires
    Commentaires en ligne
    Afficher tous les commentaires