Our Blog

[ad_1]

Console de recherche Google est de loin le dispositif le plus utilisé dans la boîte à outils du SEO. Non seulement il nous permet de comprendre au mieux le comportement de Googlebot et sa perception des propriétés de notre domaine (en termes d’indexabilité, de convivialité du site, etc.), mais il nous permet également d’évaluer les KPI de recherche que nous travaillons si rigoureusement à améliorer. GSC est gratuit, sécurisé, facile à mettre en œuvre, et il abrite la forme la plus pure de votre les données des KPI sur les performances de recherche. Ça semble parfait, non ?

Cependant, le manque de capacité à analyser ces KPI à plus grande échelle signifie que nous pouvons souvent manquer des points cruciaux qui indiquent la véritable performance de nos pages. Le fait d’être limité à 1 000 lignes de données par requête et le filtrage restreint rendent le raffinement des données et la découverte de la croissance fastidieux (ou presque impossible).

Les OMR adorent la console de recherche Google – elle dispose des données parfaites – mais malheureusement, ce n’est pas l’outil parfait pour interpréter ces données.

Pour info : il y a une API

Afin de commencer à tirer le meilleur parti possible du SGC, une option consiste à utiliser une API qui augmente le montant de la demande à 25 000 lignes par tirage. La merveilleuse Aleyda Solis a élaboré un rapport de Google Data Studio qui peut être utilisé&#13 ;
en utilisant une API très facile à mettre en place et à configurer selon vos besoins.

Vous pouvez également utiliser un produit prêt à l’emploi. Dans cet article, les exemples utilisent Succès de la recherche de Ryte car il est beaucoup plus facile, plus rapide et plus efficace de travailler avec ce type de données à l’échelle.

Nous utilisons quotidiennement Search Success pour de multiples projets, que nous aidions un client sur un sujet spécifique ou que nous effectuions des optimisations pour nos propres domaines. Nous rencontrons donc naturellement de nombreux modèles qui donnent une meilleure indication de ce qui se passe dans les SERP.

Quelle que soit la façon dont vous utilisez les données de performance de recherche du SGC, vous pouvez en faire un chef-d’œuvre qui vous permettra de tirer le meilleur parti de vos mesures de performance de recherche ! Pour vous aider à démarrer, je vais vous montrer quelques modèles avancés et, franchement, passionnants que j’ai souvent rencontrés en analysant les données sur les performances de recherche.

Donc, sans plus attendre, Allons-y.

Les mises à jour de base vous ont déprimé ?

Lorsque nous analysons les mises à jour de base, elles se ressemblent toujours. Vous trouverez ci-dessous l’un des exemples les plus clairs de mise à jour de base. Le 6 mai 2020, il y a une chute spectaculaire des impressions et des clics, mais ce qui est vraiment important à retenir, c’est la forte baisse du nombre de mots-clés de classement.

Le nombre de mots clés de classement est un indicateur de performance clé important, car il vous aide à déterminer si un site augmente régulièrement sa portée et la pertinence de son contenu. En outre, vous pouvez le relier aux volumes de recherche et aux tendances dans le temps.

Dans le cadre de ce projet, nous avons trouvé des centaines de cas qui ressemblent exactement aux exemples ci-dessous : des termes lucratifs grimpaient aux pages deux et trois (alors que Google perçoit la pertinence du classement) pour finalement se retrouver dans le top 10 à tester.

On constate une augmentation correspondante des impressions, mais le taux de clics pour ce mot-clé important est resté à un maigre 0,2 %. Sur 125 000 recherches, la page n’a reçu que 273 clics. Ce n’est clairement pas suffisant pour que ce domaine reste dans le top 10, donc lors du déploiement de la mise à jour de base, Google a rétrogradé ces résultats nettement inférieurs.

L’exemple suivant est très similaire, mais nous voyons une altitude plus élevée sur la première page en raison du fait qu’il y a moins d’impressions. Google cherchera probablement à obtenir des résultats statistiquement pertinents, donc moins il y a d’impressions sur un mot-clé, plus les tests doivent être longs. Comme vous pouvez le voir, 41 clics sur 69K impressions montrent qu’aucun chercheur n’a cliqué sur le site via ce mot-clé commercial, et qu’ils sont donc revenus aux pages deux et trois.

C’est un schéma typique de mise à jour du noyau que nous avons vu des centaines de fois. Cela nous montre que Google est clairement à la recherche de ces modèles, aussi, afin de trouver ce qui pourrait ne pas être pertinent pour leurs utilisateurs, et ce qui peut dire adieu à la page 1 après une mise à jour.

Viser à passer ces « 10 meilleurs tests » avec brio

Nous ne pouvons jamais savoir avec certitude quand Google lancera une mise à jour du noyau dur, ni être totalement sûrs de ce qui entraînera une rétrogradation. Cependant, nous devrions toujours essayer de détecter rapidement ces signes révélateurs et réagir avant même d’avoir pensé à une mise à jour de base.

Assurez-vous d’avoir mis en place un processus permettant de découvrir les CTR des sous-parties et de tirer parti de tactiques telles que le test de copie d’extraits et la génération de résultats riches ou d’extraits en vedette, qui viseront à dépasser les attentes de Google en matière de CTR et à vous assurer les dix premières places.

Bien sûr, nous sommes également témoins de ces « Top 10 Tests » classiques en dehors des mises à jour de base de Google !

L’exemple suivant est tiré de notre sous-domaine bien-aimé en.ryte.com, qui vise à attirer des clients vers nos services et qui abrite notre vaste wiki et magazine de marketing en ligne, de sorte qu’il génère naturellement du trafic pour de nombreuses demandes d’information.

Voici le classement du mot-clé « bing », qui est une requête de navigation typique avec des tonnes d’impressions (c’est le cas de nombreux utilisateurs de Google qui recherchent Bing !) Nous pouvons voir clairement les 10 premiers tests lorsque les pics bleu clair montrent une augmentation correspondante des impressions.

Alors que cela semble être une quantité juteuse d’impressions à attirer sur notre site, en réalité personne est en train de nous traverser parce que les chercheurs veulent se rendre sur bing.com et non sur notre article d’information sur le Wiki. Il s’agit d’un cas évident d’intention de recherche partagée, où Google peut faire apparaître des documents d’intention variable pour essayer de répondre à ceux qui sont en dehors de leurs hypothèses. Bien sûr, le CTR de 0% prouve que cette page n’a de valeur pour personne, et nous avons été rétrogradés.

Il est intéressant de noter que cette perte de poste nous a coûté une tonne d’impressions. Cela a provoqué une énorme baisse de « visibilité » et a donc donné l’impression que nous avions été frappés de plein fouet par la mise à jour du noyau dur de janvier. En y regardant de plus près, nous avons constaté que nous venions de perdre cette position et d’autres requêtes de navigation similaires comme « gmail », ce qui a fait paraître la baisse globale des KPI pire qu’elle ne l’était. En raison du manque d’impact que cela aura sur nos clics engagés, il s’agit de classements perdus qui ne nous feront certainement pas perdre le sommeil.

Viser un rang élevé pour ces termes à fort volume de recherche avec une intention que vous ne pouvez pas satisfaire n’est utile que pour l’optimisation des « indices de visibilité ». Demandez-vous si cela vaut la peine de vous concentrer sur ces termes, car bien sûr, vous n’apporterez pas de clics précieux à vos pages avec eux.

Ne perdez pas de temps à répondre à un grand nombre de questions qui ne vous aideront pas à atteindre vos objectifs commerciaux

Dans ma carrière de référenceur, j’ai parfois fait fausse route en passant du temps à optimiser des mots-clés à l’aspect juteux avec un volume de recherche très important. Le plus souvent, ces classements n’avaient que peu de valeur en termes de qualité du trafic, simplement parce que je n’évaluais pas correctement l’intention du chercheur.

De nos jours, avant d’investir mon temps, j’essaie de mieux interpréter lequel de ces termes apportera de la valeur à mon entreprise. Le mot-clé m’apportera-t-il des clics ? Ces clics resteront-ils sur mon site web pour atteindre un objectif important (c’est-à-dire un objectif pertinent) ou est-ce que je poursuis ces classements par vanité ? Évaluez toujours l’impact que ce classement élevé apportera à votre entreprise et adaptez vos stratégies en conséquence.

L’exemple suivant concerne le terme « SERP », qui est très informatif et n’est probablement utilisé que pour apprendre ce que l’acronyme signifie. Pour une telle requête, nous ne nous attendions pas à un nombre de clics écrasant, mais nous avons essayé d’utiliser une meilleure copie des bribes afin de transformer l’intention de réponse en intention de recherche, et donc de générer plus de visites.

Cependant, cela n’a pas vraiment fonctionné. Nous avons été pré-qualifiés en page deux, puis testés en page une (vous pouvez voir l’augmentation correspondante dans les impressions ci-dessous), mais nous n’avons pas répondu aux attentes avec un mauvais CTR de 0,1%, et nous avons été relégués à la trappe.

Encore une fois, nous n’avons pas pleuré dans nos bonnes bières bavaroises sur cette perte. Il y a encore beaucoup d’autres sujets intéressants, liés à la circulation, qui méritent notre attention.

Soyez toujours à l’affût de ceux qui ne sont pas à la hauteur de la tâche

Nous avons été heureux d’agir sur la base de l’article du wiki « meta keywords ». Avant que nous n’ayons un moment de silence pour le fait que les « meta keywords » sont encore très recherchés, remarquez comment nous sommes passés de la page quatre à la page une, tout à fait à gauche du tableau. Nous n’étions pas conscients du mouvement de ce mot-clé, et donc son simple extrait a rarement été cliqué et nous sommes retombés.

Après quelques mois, le classement de la première page a refait surface, et cette fois, nous avons pris des mesures après l’avoir trouvé dans notre rapport sur les mauvais résultats du CTR. L’extrait a été adressé pour cibler l’intention du chercheur, et la page a été améliorée en parallèle pour donner une meilleure réponse directe aux questions principales.

Non seulement cela a eu un impact positif sur notre CTR, mais nous avons même obtenu le Featured Snippet. Il est très important d’identifier ces 10 meilleurs tests à temps, afin de pouvoir agir et faire quelque chose pour rester dans le top 10.

Nous avons identifié cette requête et bien d’autres sous-alimentées en utilisant le rapport CTR Underperformer Report. Il répertorie tous les CTR des requêtes et indique les endroits où nous aurions pu nous attendre à un nombre de clics plus élevé pour l’intention, les impressions et la position de ce mot-clé (un peu comme les modèles de Google visent probablement à le faire aussi). Nous utilisons largement ce rapport pour identifier les cas où nous méritons un trafic plus important, et pour nous assurer que nous restons dans le top 10 ou que nous sommes poussés encore plus haut.

Quantifier l’importance des bribes d’information

En parlant de bribes d’informations, le diagramme ci-dessous montre à quoi cela peut ressembler lorsque vous avez la chance de participer au stage ou lorsque vous ne l’avez pas. Le mot-clé « reset iphone » du blog technique d’un client avait un CTR de 20% avec le Featured Snippet, alors que sans le Featured Snippet il était à un triste 3%. Il peut s’agir de changer de jeu pour gagner un article de fond pertinent en raison de l’impact majeur qu’il peut avoir sur votre trafic entrant.

Les « Featured Snippets » peuvent parfois avoir mauvaise réputation, en raison du risque qu’ils entraînent un CTR inférieur à un résultat standard, en particulier lorsqu’ils sont déclenchés pour des requêtes ayant une intention informationnelle plus élevée. Essayez de vous rappeler que les bribes d’information peuvent mettre votre marque plus en évidence et peuvent être un excellent signe de confiance pour le chercheur moyen. Même si les utilisateurs étaient satisfaits du SERP, les Featured Snippets peuvent donc apporter des avantages secondaires intéressants, tels qu’une meilleure notoriété de la marque et des conversions potentiellement plus élevées grâce à ce facteur de confiance.

Vous souhaitez trouver rapidement des bribes d’informations pour lesquelles il vous suffit de réutiliser le contenu existant ? Filtrez vos requêtes sur le SGC à l’aide des modificateurs de questions et de comparaisons pour trouver les mots-clés qui méritent d’être repris dans les bribes de contenu que vous pouvez voler rapidement.

Vous êtes dans le top 10 des matériaux – et maintenant ?

Un autre de nos mots-clés, « Architecture Web », est un excellent exemple de la raison pour laquelle il est si crucial de continuer à découvrir de nouveaux sujets ainsi que des contenus peu performants. Nous avons découvert que ce terme spécifique était en difficulté il y a quelque temps, lors de recherches sur des sujets en cours, et nous avons entrepris d’apporter des améliorations pour le faire monter dans le top 10. Vous pouvez voir les cas révélateurs où Google a compris l’objectif, la qualité et la pertinence de ce document fraîchement renouvelé alors qu’il monte à la première page.

Nous avons obtenu de bons résultats à chacun de nos tests. Par exemple, aux positions 10-8, nous avons réussi à obtenir un CTR de 5,7%, ce qui est bon pour un tel spot.

Après avoir réussi ce test, nous avons été promus aux positions 4 à 7, où nous avons obtenu un CTR de 13 %. Quelques semaines plus tard, nous avons atteint une position moyenne de 3,2 avec un savoureux CTR de 18,7 %, et après un certain temps, nous avons même mis en sac le Featured Snippet.

Il n’a fallu que trois mois pour identifier l’opportunité de gravir les échelons et obtenir l’extrait vedette.

Bien sûr, il ne s’agit pas seulement de CTR, mais aussi de long clic : La principale mesure de Google qui indique qu’un site fournit le meilleur résultat possible pour ses utilisateurs. Combien de clics longs y a-t-il par rapport aux clics moyens, aux clics courts, et à quelle fréquence êtes-vous le dernier à démontrer que l’intention de recherche est satisfaite ? Nous avons vérifié dans Google Analytics et sur 30 000 impressions, les gens passent en moyenne cinq minutes sur cette page, c’est donc un excellent exemple de long clic positif.

Optimiser les réponses, pas seulement les pages

Il ne s’agit pas de pages, mais d’informations individuelles et de leurs réponses correspondantes qui visent à répondre à des questions.

Dans le diagramme suivant, vous pouvez voir Google ajuster les mots-clés pour lesquels des pages spécifiques sont classées. Cette URL est classée pour un nombre impressionnant de 1 548 mots clés, mais le fait d’en extraire quelques-uns pour une analyse individuelle détaillée nous aide à mieux suivre la prise de décision de Google.

En comparant ces deux mots-clés, vous pouvez voir que Google a promu le plus performant en page 1, puis a poussé le plus faible vers le bas. La forte différence de CTR est due au fait que l’extrait n’était réellement orienté que vers une partie des mots-clés de son classement, ce qui a conduit Google à ajuster les classements. La question n’est pas toujours de savoir si un extrait est mauvais, mais si d’autres extraits sont meilleurs et si la requête mérite une meilleure information à la place de l’extrait.

N’oubliez pas que la qualité du site web et le référencement technique sont toujours essentiels

Une chose que nous aimons toujours souligner, c’est qu’il ne faut pas toujours juger trop vite vos données, car il pourrait y avoir des erreurs techniques sous-jacentes qui vous dépriment (telles que des migrations bâclées, des signaux de classement mixtes, des actifs bloqués, etc.

Le cas ci-dessous illustre parfaitement pourquoi il est préférable d’analyser ces données avec un outil comme Ryte, car avec GSC vous ne verrez qu’une petite partie de ce qui se passe, et avec une vue de très haut niveau. Vous voulez pouvoir comparer les pages individuelles qui sont classées pour votre mot-clé afin de révéler ce qui est réellement à la racine du problème.

Vous êtes probablement très choqué par cette baisse spectaculaire, car avant la chute, c’était un mot-clé très performant avec un excellent CTR et un long règne en position un.

Ce mot-clé était en première position avec un CTR de 90%, mais le domaine a ensuite ajouté une directive de non-indexation à la page (facepalm). Ainsi, Google a remplacé cette URL de classement numéro un par son sous-domaine, qui était déjà en deuxième position. Cependant, la page d’accueil du sous-domaine n’était pas l’endroit idéal pour la requête, car les chercheurs ne pouvaient pas trouver l’information correcte tout de suite.

Mais la situation a empiré, car ils ont alors décidé de rediriger la page d’accueil du sous-domaine vers la page d’accueil du domaine de premier niveau, si bien que Google a dû initialement classer une page générique qui ne contenait manifestement pas les informations correctes pour répondre à cette requête spécifique. Comme vous pouvez le voir, ils ont ensuite complètement abandonné cette position de tête, car elle n’était pas pertinente, et Google n’a pas pu récupérer la page correcte pour ce travail.

Quelque chose de similaire s’est produit dans l’exemple suivant. Le résultat en position un pour un terme très juteux avec un CTR fantastique a soudainement renvoyé un 404, de sorte que Google a commencé à classer une page différente de ce même domaine à la place, qui était associée à un sujet légèrement similaire mais inexact. Une fois de plus, cela ne correspondait pas à la requête, de sorte que la performance globale a diminué.

C’est pourquoi il est si important de ne pas se limiter aux données globales, mais d’approfondir, surtout si un mot-clé est classé sur plusieurs pages, afin de voir exactement ce qui se passe.

Vous avez des spams ?

Le dernier point n’est pas exactement un modèle à considérer, mais plutôt une sage leçon pour conclure tout ce que j’ai exploré dans ce billet.

À l’échelle, Google teste les pages dans les 10 premiers résultats afin de trouver le meilleur placement en fonction de cette performance. Dans cette optique, pourquoi ne pouvons-nous pas demander aux gens de se rendre sur les SERP, de cliquer sur nos résultats et de récolter les savoureux bénéfices de ce meilleur positionnement ? Ou mieux encore, pourquoi ne pas automatiser cela en permanence pour toutes nos recherches parmi les dix premières demandes testées ?

Bien sûr, cette approche est très spammeuse, contraire aux directives, et contre laquelle Google peut facilement se prémunir. Vous n’avez pas non plus besoin de tester cela, car Marcus (étant le spécialiste du référencement, il est curieux !) l’a déjà fait.

L’un de ses propres domaines sur les offres d’emploi se classe pour le mot-clé focus des « offres d’emploi », et comme vous pouvez l’imaginer, c’est un terme très compétitif qui demande beaucoup d’efforts pour être noté. Il se classait à la position 6,6 et avait un CTR décent, mais il voulait l’optimiser encore plus et faire grimper ces SERP en position 1.

Il a artificiellement augmenté son CTR en utilisant des méthodes astucieuses qui lui ont permis d’obtenir un CTR « très crédible » de 36% en position 9. En position 10, il a obtenu un CTR de 56,6 %. Google a alors commencé à avoir vent de la manipulation des spams et l’a sanctionné par des sanctions. Leçon apprise.

Bien sûr, il s’agissait d’une expérience visant à comprendre à quel moment Google détecterait un comportement de spam. Je n’encouragerais pas la mise en œuvre de telles tactiques dans un but de gain personnel, car il est dans l’intérêt de la santé et de l’état de votre site web de se concentrer sur le qualité de vos clics. Même si ce test fonctionnait bien et que le classement s’améliorait, il se peut qu’avec le temps, vos visiteurs n’aient plus d’écho dans votre contenu, et Google pourrait se rappeler que cette position inférieure n’est pas sans raison. Il s’agit d’un cycle continu.

Je vous encourage à atteindre vos résultats biologique. Exploitez le pouvoir de l’optimisation par extrait parallèlement aux améliorations continues du domaine et du contenu pour augmenter non seulement la quantité et la qualité de vos clics, mais aussi les expériences mêmes de votre site web qui ont un impact sur votre référencement et la croissance de votre entreprise à long terme.

Conclusion

Pour résumer, n’oubliez pas que les données sur les performances de recherche du SGC vous donnent le meilleur aperçu des performances réelles de votre site web. Les traqueurs de classement sont idéaux pour la recherche de concurrents et les clichés SERP, mais les données de position ne sont qu’un classement absolu à partir d’une variable définie comme l’emplacement et le périphérique. Utilisez vos propres données GSC pour les analyses de modèles intrinsèques, les diagnostics et la découverte de la croissance.

Mais avec de grandes données, viennent de grandes responsabilités. Assurez-vous de trouver et de comprendre les schémas dont vous devez tenir compte, comme par exemple des tests difficiles dans le top 10, des bribes de données peu performantes, des défauts techniques, et tout ce qui vous prive du succès que vous vous efforcez d’obtenir.


Prêts pour plus ?

Vous découvrirez encore plus de qualités en matière de référencement grâce à Izzi et à nos autres conférenciers MozCon dans le pack vidéo MozCon 2020. Au prix spécial de 129 dollars de cette année, il s’agit d’un contenu inestimable auquel vous pouvez accéder encore et encore tout au long de l’année pour inspirer et enflammer votre stratégie de référencement :

  • 21 vidéos complètes réalisées par certains des plus brillants esprits du marketing numérique
  • Téléchargement et diffusion en continu sur votre ordinateur, tablette ou appareil mobile
  • Diapositives téléchargeables pour les présentations

Recevoir mon pack vidéo MozCon 2020

[ad_2]